Archivos de la etiqueta: inteligencia artificial

05Feb/24

Análisis de la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de Inteligencia Artificial

Autor: José Luis Chávez Sánchez

22Ene/24

COM(2022) 496 final. de 28 de septiembre de 2022

COM(2022) 496 final. de 28 de septiembre de 2022. Propuesta de Directiva del Parlamento Europeo y del Consejo relativa a la adaptación de las normas de responsabilidad civil extra contractual a la Inteligencia Artificial (Directiva sobre responsabilidad en materia de IA)

Bruselas, 28.9.2022

COM(2022) 496 final 2022/0303(COD)

EXPOSICIÓN DE MOTIVOS

1. CONTEXTO DE LA PROPUESTA

* Razones y objetivos de la propuesta

La presente exposición de motivos acompaña a la propuesta de Directiva relativa a la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial (IA). En una encuesta representativa realizada en 2020 (1) , la cuestión de la responsabilidad civil figuraba entre los tres principales obstáculos a la utilización de la IA por parte de las empresas europeas. Se citó como el obstáculo externo más importante (43 %) en el caso de las empresas que tienen previsto recurrir a la IA, pero que aún no lo han hecho.

En sus orientaciones políticas, la presidenta de la Comisión, Ursula von der Leyen, estableció un enfoque europeo coordinado en materia de IA (2). En su Libro Blanco sobre la IA, de 19 de febrero de 2020 (3), la Comisión se comprometió a promover la adopción de la IA y a abordar los riesgos asociados a algunos de sus usos fomentando la excelencia y la confianza. En el Informe sobre responsabilidad en materia de IA (4) que acompaña al Libro Blanco, la Comisión señaló los retos específicos que plantea la IA con respecto a las normas vigentes en materia de responsabilidad. En sus Conclusiones sobre la configuración del futuro digital de Europa, de 9 de junio de 2020, el Consejo acogió con satisfacción la consulta sobre las propuestas políticas del Libro Blanco sobre la IA y pidió a la Comisión que presentase propuestas concretas. El 20 de octubre de 2020, el Parlamento Europeo adoptó una resolución legislativa de propia iniciativa en virtud del artículo 225 del TFUE en la que pedía a la Comisión que adoptase una propuesta relativa a un régimen de responsabilidad civil para la IA basado en el artículo 114 del Tratado de Funcionamiento de la Unión Europea (TFUE) (5) .

Las normas nacionales en vigor en materia de responsabilidad civil, particularmente las que se basan en la culpa, no son adecuadas para tramitar las denuncias de responsabilidad civil por daños causados por productos y servicios en los que se recurre a la IA. Con arreglo a dichas normas, las víctimas deben demostrar que ha habido una acción u omisión ilícita por parte de una persona que ha causado el daño. Las características específicas de la IA, incluidas su complejidad, su autonomía y su opacidad (el denominado efecto de «caja negra»), pueden dificultar o hacer excesivamente costoso para las víctimas determinar cuál es la persona responsable y probar que se cumplen los requisitos para una demanda de responsabilidad civil admisible. En particular, al reclamar una indemnización, las víctimas podrían tener que soportar unos costes iniciales muy elevados y enfrentarse a procedimientos judiciales mucho más largos, en comparación con los casos sin relación alguna con la inteligencia artificial. Por lo tanto, las víctimas pueden verse disuadidas de intentar siquiera obtener una indemnización. Estas preocupaciones también han sido señaladas por el Parlamento Europeo en su resolución de 3 de mayo de 2022 sobre la inteligencia artificial en la era digital.  (6)

Si una víctima presenta una demanda, los órganos jurisdiccionales nacionales, al verse confrontados con las características específicas de la IA, pueden adaptar el modo en que aplican las normas en vigor de forma ad hoc con el fin de llegar a un resultado justo para la víctima. Esto generará inseguridad jurídica. Las empresas tendrán dificultades para predecir cómo se aplicarán las normas de responsabilidad civil vigentes y, por tanto, para evaluar y asegurar su exposición a dicha responsabilidad. Este problema se verá agravado en el caso de las empresas que practiquen el comercio transfronterizo, ya que la incertidumbre abarcará diferentes jurisdicciones. Afectará especialmente a las pymes, que no pueden recurrir a los conocimientos de servicios jurídicos propios ni cuentan con reservas de capital.

Las estrategias nacionales de IA ponen de manifiesto que varios Estados miembros están estudiando, o incluso planificando de manera concreta, medidas legislativas sobre la responsabilidad civil en los casos en que medie IA. Por lo tanto, se espera que, si la UE no actúa, los Estados miembros adapten sus normas nacionales de responsabilidad civil a los retos que plantea la IA. Esto dará lugar a una mayor fragmentación y a un aumento de los costes para las empresas que operan en la UE.

La consulta pública abierta que sirvió de base para la evaluación de impacto de la presente propuesta confirmó la existencia los problemas explicados. En opinión del público, el efecto de «caja negra» puede dificultar a la víctima la prueba de la culpa y de la causalidad, y puede generarse incertidumbre sobre la manera en que los tribunales interpretarán y aplicarán las normas nacionales de responsabilidad civil en vigor en aquellos casos en que medie IA. Además, se puso de manifiesto una preocupación por parte del público en cuanto a la manera en que la acción legislativa para la adaptación de las normas de responsabilidad civil iniciada por los distintos Estados miembros y la consiguiente fragmentación afectarían a los costes de las empresas, especialmente a los de las pymes, impidiendo así la adopción de la IA en toda la Unión.

Así pues, el objetivo de la presente propuesta es promover la introducción generalizada de una IA fiable a fin de aprovechar plenamente sus beneficios para el mercado interior. Lo hace garantizando que las víctimas de daños causados por la IA obtengan una protección equivalente a la de las víctimas de daños causados por los demás productos. También reduce la inseguridad jurídica de las empresas que desarrollan o utilizan la IA en relación con su posible exposición a responsabilidad civil y evita la aparición de adaptaciones a la IA específicas fragmentadas de las normas nacionales en materia de responsabilidad civil.

* Coherencia con las disposiciones existentes en la misma política sectorial

La presente propuesta forma parte de un paquete de medidas para apoyar la adopción de la IA en Europa mediante el fomento de la excelencia y la confianza. Este paquete consta de tres líneas de trabajo complementarias:

–una propuesta legislativa por la que se establecen normas horizontales sobre los sistemas de inteligencia artificial (Ley de IA) (7) ;

–una revisión de las normas sectoriales y horizontales en materia de seguridad de los productos;

–normas de la UE para abordar las cuestiones de responsabilidad civil relacionadas con los sistemas de IA.

En la propuesta de Ley de IA, la Comisión ha propuesto normas destinadas a reducir los riesgos para la seguridad y proteger los derechos fundamentales. La seguridad y la responsabilidad son las dos caras de la misma moneda: intervienen en momentos diferentes y se refuerzan mutuamente. Si bien las normas para garantizar la seguridad y proteger los derechos fundamentales reducirán los riesgos, no los eliminan por completo (8) . En caso de que se materialice tal riesgo, sigue existiendo la posibilidad de que se produzcan daños. En tales casos, se aplicarán las normas sobre responsabilidad civil de la presente propuesta.

Unas normas eficaces en materia de responsabilidad también ofrecen un incentivo económico para cumplir las normas de seguridad y, por lo tanto, contribuyen a evitar que se produzcan daños (9) . Además, la presente propuesta contribuye al cumplimiento de los requisitos para sistemas de IA de alto riesgo impuestos por la Ley de IA, ya que el incumplimiento de dichos requisitos constituye un elemento importante de los que dan lugar al aligeramiento de la carga de la prueba. La presente propuesta también es coherente con las normas generales (10) y sectoriales propuestas en materia de seguridad de los productos aplicables a las máquinas y a sus partes y accesorios (11) y a los equipos radioeléctricos (12) que emplean IA.

La Comisión adopta un enfoque holístico en su política de responsabilidad en materia de IA, proponiendo adaptaciones de la responsabilidad del productor por productos defectuosos en virtud de la Directiva sobre responsabilidad por los daños causados por productos defectuosos, y la armonización específica en el marco de la presente propuesta. Estas dos iniciativas políticas están estrechamente vinculadas y forman un paquete, ya que las demandas que entran en sus ámbitos de aplicación se refieren a diferentes tipos de responsabilidad. La Directiva sobre responsabilidad por los daños causados por productos defectuosos cubre la responsabilidad objetiva del productor por productos defectuosos, lo que da lugar a una indemnización por determinados tipos de daños, principalmente sufridos por particulares. La presente propuesta cubre las demandas nacionales de responsabilidad fundamentadas principalmente en la culpa de cualquier persona con el fin de indemnizar por cualquier tipo de daño y a cualquier tipo de víctima. Se complementan entre sí para formar un sistema general de responsabilidad civil eficaz.

Juntas, estas normas promoverán la confianza en la IA (y otras tecnologías digitales) garantizando que las víctimas reciban una indemnización efectiva si, a pesar de los requisitos preventivos de la Ley de IA y otras normas de seguridad, se producen daños.

*Coherencia con otras políticas de la Unión

La propuesta es coherente con la estrategia digital general de la Unión, ya que contribuye a promover una tecnología al servicio de las personas, uno de los tres pilares principales de las orientaciones políticas y los objetivos anunciados en la Comunicación titulada «Configurar el futuro digital de Europa» (13).

En este contexto, la presente propuesta pretende generar confianza en la IA y promover su adopción. Esto generará sinergias y es complementario con la [Ley de ciberresiliencia] (14), que también tiene por objeto fortalecer la confianza en los productos con elementos digitales reduciendo las vulnerabilidades cibernéticas y proteger mejor a las empresas y a los usuarios consumidores.

La presente propuesta no afecta a las normas establecidas por la [Ley de Servicios Digitales], que establecen un marco integral y plenamente armonizado para las obligaciones de diligencia debida para la toma de decisiones algorítmica por parte de las plataformas en línea, incluida su exención de responsabilidad para los prestadores de servicios intermediarios.

Además, al promover la adopción de la IA, la presente propuesta está vinculada a las iniciativas de la Estrategia de Datos de la UE (15) . También refuerza el papel de la Unión para ayudar a configurar las normas y estándares mundiales y promover una IA fiable que sea coherente con los valores e intereses de la Unión.

La propuesta también tiene vínculos indirectos con el «Pacto Verde Europeo» (16). En particular, las tecnologías digitales, incluida la IA, son un factor fundamental para alcanzar los objetivos de sostenibilidad del Pacto Verde en muchos sectores diferentes (como la asistencia sanitaria, el transporte, el medio ambiente y la agricultura).

* Principales consecuencias económicas, sociales y ambientales

La Directiva contribuirá a la introducción generalizada de la IA. Las condiciones para la introducción generalizada y el desarrollo de tecnologías de IA en el mercado interior pueden mejorarse significativamente evitando la fragmentación y aumentando la seguridad jurídica a través de medidas armonizadas a escala de la UE, en contraposición con las posibles adaptaciones de las normas de responsabilidad a nivel nacional. El estudio económico (17) en que se basa la evaluación de impacto de la presente propuesta concluyó —como estimación conservadora— que las medidas de armonización específicas de la responsabilidad civil por IA tendrían un impacto positivo del 5 al 7 % en el valor de producción del comercio transfronterizo pertinente en comparación con la hipótesis de referencia. Este valor añadido se generaría, en particular, gracias a la reducción de la fragmentación y a una mayor seguridad jurídica con respecto a la exposición de las partes interesadas a la responsabilidad civil. Esto reduciría los costes de información y representación jurídicas de las partes interesadas, así como los costes de gestión interna de riesgos y los costes de cumplimiento, facilitaría la planificación financiera y las estimaciones de riesgos a efectos de aseguramiento, y permitiría a las empresas —en particular a las pymes— explorar nuevos mercados más allá de sus fronteras. Sobre la base del valor global del mercado de la IA en la UE afectado por los problemas relacionados con la responsabilidad civil que aborda la presente Directiva, se estima que esta última generará un valor de mercado adicional de entre 500 y 1 100 millones EUR.

En términos de impacto social, la Directiva aumentará la confianza de la sociedad en las tecnologías de IA y promoverá el acceso a un sistema judicial eficaz. Contribuirá a un régimen de responsabilidad civil eficiente, adaptado a las especificidades de la IA, en el que las demandas fundamentadas de indemnización por daños y perjuicios sean estimadas. El aumento de la confianza social también beneficiaría a todas las empresas de la cadena de valor de la IA, ya que el aumento de la confianza de los ciudadanos contribuirá a una adopción más rápida de la IA. Debido al efecto incentivador de las normas sobre responsabilidad, evitar las lagunas en materia de responsabilidad también beneficiaría indirectamente a todos los ciudadanos mediante un mayor nivel de protección de la salud y la seguridad (artículo 114, apartado 3, del TFUE) y la evitación de fuentes de riesgo para la salud (artículo 168, apartado 1, del TFUE).

Por lo que se refiere a los impactos medioambientales, también se espera que la Directiva contribuya a la consecución de los Objetivos de Desarrollo Sostenible (ODS) y de las metas correspondientes. La adopción de aplicaciones de IA es beneficiosa para el medio ambiente. Por ejemplo, los sistemas de IA utilizados en la optimización de procesos reducen el despilfarro de estos (por ejemplo, reduciendo la cantidad de fertilizantes y plaguicidas necesaria, reduciendo el consumo de agua a igualdad de rendimiento, etc.). La Directiva también repercutiría positivamente en los ODS, ya que una legislación eficaz en materia de transparencia, rendición de cuentas y derechos fundamentales orientará el potencial de la IA en beneficio de las personas y de la sociedad hacia la consecución de los ODS.

2. BASE JURÍDICA, SUBSIDIARIEDAD Y PROPORCIONALIDAD

*  Base jurídica

La base jurídica de la propuesta es el artículo 114 del TFUE, que prevé la adopción de medidas para garantizar el establecimiento y el funcionamiento del mercado interior.

Los problemas que la presente propuesta pretende abordar, en particular, la inseguridad jurídica y la fragmentación jurídica, dificultan el desarrollo del mercado interior y, por lo tanto, suponen obstáculos significativos al comercio transfronterizo de productos y servicios basados en la IA.

La propuesta aborda los obstáculos derivados del hecho de que las empresas que desean producir, difundir y explotar productos y servicios basados en la IA más allá de sus fronteras no pueden saber si los regímenes de responsabilidad civil en vigor se aplican a los daños causados por la IA, ni tampoco de qué manera se aplican. Esta incertidumbre se refiere, en particular, a los Estados miembros a los que las empresas van a exportar productos y servicios, o a aquellos en los que los van a explotar. En un contexto transfronterizo, la ley aplicable a un caso de responsabilidad extracontractual derivada de un hecho dañoso es, por defecto, la del país en el que se produce el daño. Para estas empresas resulta esencial conocer los riesgos de responsabilidad civil pertinentes y poder asegurarse contra ellos.

Además, hay indicios concretos de que varios Estados miembros están estudiando la posibilidad de adoptar medidas legislativas unilaterales para abordar los retos específicos que plantea la IA en materia de responsabilidad. Por ejemplo, las estrategias de IA adoptadas en Chequia (18), Italia (19) , Malta (20) , Polonia (21) y Portugal (22) mencionan iniciativas para aclarar la cuestión de la responsabilidad. Dada la gran divergencia entre las normas vigentes en materia de responsabilidad civil de los Estados miembros, es probable que cualquier medida nacional relacionada específicamente con la IA en materia de responsabilidad siga los diferentes enfoques nacionales existentes y, por tanto, aumente el grado de fragmentación.

Por lo tanto, las adaptaciones de las normas de responsabilidad adoptadas de forma estrictamente nacional incrementarían los obstáculos a la introducción generalizada de productos y servicios basados en la IA en todo el mercado interior y contribuirían aún más a la fragmentación.

* Subsidiariedad

Los objetivos de la presente propuesta no pueden alcanzarse adecuadamente a nivel nacional, ya que la aparición de normas nacionales divergentes incrementaría la inseguridad jurídica y la fragmentación, creando obstáculos a la introducción generalizada de productos y servicios basados en la IA en todo el mercado interior. La inseguridad jurídica afectaría especialmente a las empresas con actividades transfronterizas, al imponer la necesidad de información o representación jurídica adicional, costes de gestión de riesgos y causar pérdidas de ingresos. Al mismo tiempo, las diferentes normas nacionales sobre las demandas de indemnización por daños causados por la IA aumentarían los costes de transacción para las empresas, especialmente en el comercio transfronterizo, lo que conllevaría importantes barreras al mercado interior. Además, la inseguridad jurídica y la fragmentación afectan de manera desproporcionada a las empresas emergentes y a las pymes, que representan una mayoría de las empresas y la mayor parte de las inversiones en los mercados pertinentes.

En ausencia de normas armonizadas a escala de la UE para indemnizar los daños causados por los sistemas de IA, los proveedores, operadores y usuarios de sistemas de IA, por una parte, y, por otra, las personas perjudicadas, se verían confrontadas a 27 regímenes de responsabilidad diferentes, lo que daría lugar a distintos niveles de protección y falsearía la competencia entre las empresas de los distintos Estados miembros.

Unas medidas armonizadas a escala de la UE mejorarían significativamente las condiciones para la introducción generalizada y el desarrollo de tecnologías de IA en el mercado interior, al evitar la fragmentación y aumentar la seguridad jurídica. Este valor añadido se generaría, en particular, gracias a la reducción de la fragmentación y a una mayor seguridad jurídica con respecto a la exposición de las partes interesadas a la responsabilidad civil. Además, solo la acción de la UE puede lograr de manera coherente el efecto deseado de promover la confianza de los consumidores en los productos y servicios basados en la IA evitando las lagunas en materia de responsabilidad civil vinculadas a las características específicas de la IA en todo el mercado interior. Esto garantizaría un nivel (mínimo) de protección uniforme para todas las víctimas (particulares y empresas) y unos incentivos uniformes para prevenir daños y garantizar la rendición de cuentas.

* Proporcionalidad

La propuesta se basa en un enfoque por fases. En la primera fase, los objetivos se alcanzan con un enfoque mínimamente invasivo; la segunda fase consiste en reevaluar la necesidad de medidas más estrictas o amplias.

La primera fase se limita a las medidas relativas a la carga de la prueba para hacer frente a los problemas propios de la IA detectados. Se basa en las condiciones sustantivas de responsabilidad civil que existen actualmente en las normas nacionales, como la causalidad o la culpa, pero se centra en medidas específicas relacionadas con la prueba, garantizando que las víctimas tengan el mismo nivel de protección que en los casos en los que no medien sistemas de IA. Además, de entre los diversos instrumentos disponibles en la legislación nacional para aliviar la carga de la prueba (23), la presente propuesta ha optado por recurrir a las presunciones refutables (iuris tantum) por ser esta la herramienta menos intervencionista. Este tipo de presunciones se encuentra con frecuencia en los sistemas nacionales de responsabilidad y ponderan los intereses de demandantes y demandados. Al mismo tiempo, están diseñadas para incentivar el cumplimiento de las obligaciones de diligencia en vigor establecidas a escala nacional o de la Unión. La propuesta no conduce a una inversión de la carga de la prueba para evitar exponer a los proveedores, operadores y usuarios de sistemas de IA a mayores riesgos de responsabilidad civil, lo cual podría obstaculizar la innovación y reducir la adopción de productos y servicios basados en la IA.

La segunda fase incluida en la propuesta garantiza que, a la hora de evaluar el efecto de la primera fase en términos de protección de las víctimas y adopción de la IA, se tengan en cuenta los futuros cambios tecnológicos, normativos y jurisprudenciales a la hora de reevaluar la necesidad de armonizar otros elementos de las demandas de indemnización u otros instrumentos relacionados con las demandas de responsabilidad civil, incluido en aquellas situaciones en que la responsabilidad objetiva sería más adecuada, según lo solicitado por el Parlamento Europeo. Esta evaluación también consideraría, probablemente, la posibilidad de que tal armonización vaya acompañada de un seguro obligatorio para garantizar la eficacia.

* Elección del instrumento

Una directiva es el instrumento más adecuado para esta propuesta, ya que proporciona el efecto de armonización y la seguridad jurídica deseados al tiempo que ofrece la flexibilidad necesaria para que los Estados miembros puedan integrar las medidas armonizadas sin fricciones en sus regímenes nacionales de responsabilidad.

Un instrumento obligatorio evitaría las lagunas de protección derivadas de una aplicación parcial o nula. Aunque un instrumento no vinculante sería menos intrusivo, es poco probable que pueda dar respuesta a los problemas detectados de manera eficaz. El porcentaje de aplicación de los instrumentos no vinculantes es difícil de predecir y no hay indicios suficientes de que el efecto persuasivo de una recomendación sea lo suficientemente fuerte como para dar lugar a una adaptación coherente de las legislaciones nacionales.

Este efecto es aún más improbable en el caso de las medidas de Derecho privado, del que forman parte las normas de responsabilidad extracontractual. Este ámbito se caracteriza por tradiciones jurídicas arraigadas, lo cual hace que los Estados miembros sean reacios a llevar a cabo reformas coordinadas a menos que estén movidos por una perspectiva clara de beneficios en el mercado interior gracias a un instrumento vinculante de la UE, o por la necesidad de adaptarse a las nuevas tecnologías de la economía digital.

Las importantes divergencias existentes entre los marcos de responsabilidad de los Estados miembros son otra razón por la que es poco probable que una recomendación se aplique de manera coherente.

1. RESULTADOS DE LAS EVALUACIONES EX POST, DE LAS CONSULTAS CON LAS PARTES INTERESADAS Y DE LAS EVALUACIONES DE IMPACTO

* Consultas con las partes interesadas

Se ha aplicado una estrategia de grandes consultas para garantizar una amplia participación de las partes interesadas a lo largo de todo el ciclo político de la presente propuesta. La estrategia de consulta estuvo fundamentada tanto en consultas públicas como en varias consultas específicas (seminarios web, debates bilaterales con empresas y diversas organizaciones).

Tras las preguntas iniciales sobre la responsabilidad que formaban parte de la consulta pública relativa al Libro Blanco sobre la IA y el informe de la Comisión sobre seguridad y responsabilidad, del 18 de octubre de 2021 al 10 de enero de 2022 se abrió una consulta pública específica en línea para recabar las opiniones de una amplia variedad de partes interesadas, incluidos los consumidores, las organizaciones de la sociedad civil, las asociaciones industriales, las empresas —incluidas las pymes— y las autoridades públicas. Tras analizar todas las respuestas recibidas, la Comisión publicó un resumen de resultados y las respuestas individuales en su sitio web (24).

En total, se recibieron 233 respuestas de encuestados de veintiún Estados miembros, así como de terceros países. En general, la mayoría de las partes interesadas confirmaron los problemas relacionados con la carga de la prueba, la inseguridad jurídica y la fragmentación, y apoyaron la acción a escala de la UE.

Los ciudadanos de la UE, las organizaciones de consumidores y las instituciones académicas confirmaron mayoritariamente la necesidad de que la UE actuase para mitigar los problemas de las víctimas en relación con la carga de la prueba. Las empresas, aun reconociendo los efectos negativos de la incertidumbre en torno a la aplicación de las normas de responsabilidad, fueron más cautas y pidieron medidas específicas para evitar que se obstaculice la innovación.

Sucedió algo similar en cuanto a las opciones políticas. Los ciudadanos de la UE, las organizaciones de consumidores y las instituciones académicas apoyaron decididamente las medidas relativas a la carga de la prueba y a la armonización de la responsabilidad sin culpa (denominada «responsabilidad objetiva») junto con un seguro obligatorio. Las empresas estaban más divididas en cuanto a las opciones políticas, y las diferencias dependían, en parte, de su tamaño. La mayoría de las empresas encuestadas consideraron que la responsabilidad objetiva era desproporcionada. La armonización del aligeramiento de la carga de la prueba obtuvo más apoyos, en particular entre las pymes. Sin embargo, las empresas advirtieron contra un traslado total de la carga de la prueba.

Por lo tanto, la opción política preferida se desarrolló y perfeccionó a la luz de las observaciones recibidas de las partes interesadas a lo largo de todo el proceso de evaluación de impacto, a fin de lograr un equilibrio entre las necesidades manifestadas y las preocupaciones planteadas por todos los grupos de partes interesadas pertinentes.

* Obtención y uso de asesoramiento especializado

La propuesta se basa en cuatro años de análisis y en la estrecha participación de las partes interesadas, incluidos el mundo académico, las empresas, las asociaciones de consumidores, los Estados miembros y los ciudadanos. Los trabajos preparatorios comenzaron en 2018 con la creación del Grupo de Expertos sobre Responsabilidad y Nuevas Tecnologías (formación sobre nuevas tecnologías). El grupo de expertos elaboró un informe en noviembre de 2019 (25) en el que se evaluaban los retos que plantean algunas características de la IA en relación con las normas nacionales en materia de responsabilidad civil.

Las aportaciones del informe del grupo de expertos se complementaron con tres estudios externos adicionales:

–un estudio de Derecho comparado basado en un análisis jurídico comparativo de las leyes europeas en materia de responsabilidad civil centrado en cuestiones clave relacionadas con la IA (26);

–un estudio de economía del comportamiento sobre los efectos de las adaptaciones específicas del régimen de responsabilidad civil en la toma de decisiones por parte de los consumidores, especialmente sobre su confianza y su voluntad de adoptar productos y servicios basados en la IA (27);

–un estudio económico (28) que abarca una serie de cuestiones: los retos a los que se enfrentan las víctimas de aplicaciones de la IA en comparación con las víctimas de dispositivos que no emplean IA cuando intentan obtener una indemnización por los perjuicios sufridos; si —y en qué medida— las empresas tienen dudas sobre la aplicación de las normas en vigor en materia de responsabilidad a sus operaciones relacionadas con la IA, y si la incidencia de la inseguridad jurídica puede obstaculizar la inversión en IA; si una mayor fragmentación de las legislaciones nacionales en materia de responsabilidad reduciría la eficacia del mercado interior de aplicaciones y servicios de IA, y si —y en qué medida— la armonización de determinados aspectos de la responsabilidad civil nacional a través de la legislación de la UE mitigaría estos problemas y facilitaría la adopción general de la tecnología de IA por parte de las empresas de la UE.

* Evaluación de impacto

En consonancia con su política de «legislar mejor», la Comisión sometió la presente propuesta a una evaluación de impacto que fue examinada por su Comité de Control Reglamentario. La reunión del Comité de Control Reglamentario del 6 de abril de 2022 dio lugar a un dictamen favorable con observaciones.

Se evaluaron tres opciones de actuación:

Opción política 1. tres medidas para aliviar la carga de la prueba que recae sobre las víctimas que intentan presentar pruebas que apoyen su demanda de responsabilidad civil.

Opción política 2. las medidas de la opción 1 + armonizar las normas de responsabilidad objetiva en los casos de uso de IA con un perfil de riesgo particular, junto con un seguro obligatorio.

Opción política 3. un enfoque por fases consistente en:

–primera fase: las medidas de la opción 1;

–segunda fase: un mecanismo de revisión para reevaluar, en particular, la necesidad de armonizar la responsabilidad objetiva en los casos de uso de IA con un perfil de riesgo particular (posiblemente acompañado de un seguro obligatorio).

Las opciones políticas se compararon mediante un análisis multicriterio que tenía en cuenta su eficacia, eficiencia, coherencia y proporcionalidad. Los resultados del análisis multicriterio y de sensibilidad muestran que la opción política 3, que prevé el alivio de la carga de la prueba en las demandas relacionadas con la IA y la revisión específica en relación con la responsabilidad objetiva, posiblemente acompañada de un seguro obligatorio, ocupa el lugar más alto y es, por tanto, la opción política preferida para la presente propuesta.

La opción política preferida garantizaría que las víctimas de productos y servicios basados en la IA (personas físicas, empresas y cualquier otra entidad pública o privada) no estén menos protegidas que las víctimas de las tecnologías tradicionales. Aumentaría el nivel de confianza en la IA y fomentaría su adopción.

Además, reduciría la inseguridad jurídica y evitaría la fragmentación normativa, ayudando así a las empresas —y sobre todo a las pymes— que deseen aprovechar todo el potencial del mercado único de la UE mediante el introducción generalizada y transfronteriza de productos y servicios basados en la IA. La opción política preferida también crea mejores condiciones para que las aseguradoras ofrezcan cobertura para actividades relacionadas con la IA, lo cual resulta crucial para que las empresas, y especialmente las pymes, gestionen sus riesgos. En concreto, se estima que la opción preferida generaría un aumento del valor de mercado de la IA en la EU-27 de entre 500 millones EUR y 1 100 millones EUR en 2025.

* Derechos fundamentales

Una de las funciones más importantes de las normas de responsabilidad civil es garantizar que las víctimas de daños puedan reclamar una indemnización. Al garantizar una indemnización efectiva, estas normas contribuyen a la protección del derecho a la tutela judicial efectiva y a un juez imparcial (artículo 47 de la Carta de los Derechos Fundamentales de la Unión Europea, denominada en lo sucesivo «la Carta»), al tiempo que incentivan a las personas que, potencialmente, puedan incurrir en responsabilidad civil a prevenir los daños y perjuicios con el fin de evitar que se genere la responsabilidad.

Con esta propuesta, la Comisión pretende garantizar que las víctimas de daños causados por la IA gocen de un nivel de protección equivalente en virtud de las normas de responsabilidad civil al de las víctimas de daños causados sin que medie IA. La propuesta permitirá una aplicación privada efectiva de los derechos fundamentales y protegerá el derecho a la tutela judicial efectiva cuando se materialicen los riesgos específicos de la IA. En particular, la propuesta contribuirá a proteger los derechos fundamentales, como el derecho a la vida (artículo 2 de la Carta), el derecho a la integridad física y mental (artículo 3) y el derecho a la propiedad (artículo 17). Además, en función del sistema y las tradiciones de Derecho civil de cada Estado miembro, las víctimas podrán reclamar una indemnización por los daños causados a otros intereses jurídicos, como las violaciones de la dignidad personal (artículos 1 y 4 de la Carta), el respeto de la vida privada y familiar (artículo 7), el derecho a la igualdad (artículo 20) y la no discriminación (artículo 21).

Además, la presente propuesta complementa otras vertientes de la política de IA de la Comisión basadas en requisitos preventivos normativos y de supervisión destinados directamente a evitar violaciones de los derechos fundamentales (como la discriminación), a saber: la Ley de IA, el Reglamento General de Protección de Datos, la Ley de Servicios Digitales y la legislación de la UE sobre no discriminación e igualdad de trato. Al mismo tiempo, la presente propuesta no crea ni armoniza los deberes de diligencia ni la responsabilidad civil de las distintas entidades cuya actividad está regulada por dichos actos jurídicos y, por lo tanto, no crea nuevos tipos de demandas de responsabilidad ni afecta a las exenciones de responsabilidad previstas en esos otros actos jurídicos. La presente propuesta solo introduce aligeramientos de la carga de la prueba para las víctimas de daños causados por sistemas de IA en las demandas que pueden fundamentarse en la legislación nacional o en estas otras leyes de la UE. Al complementar estas otras vertientes, la presente propuesta protege el derecho de la víctima a una indemnización en virtud del Derecho privado, incluidas las indemnizaciones por violaciones de los derechos fundamentales.

4. REPERCUSIONES PRESUPUESTARIAS

La presente propuesta no tendrá incidencia en el presupuesto de la Unión Europea.

5. OTROS ELEMENTOS

* Planes de ejecución y seguimiento, evaluación, programa de seguimiento y revisión específica

La presente propuesta propone un enfoque por fases. A fin de garantizar que se dispone de elementos suficientes para la revisión específica en la segunda fase, la Comisión elaborará un plan de seguimiento en el que se detallará cómo y con qué frecuencia se reunirán los datos y demás elementos de prueba necesarios.

El mecanismo de seguimiento podría abarcar los siguientes tipos de datos y elementos de prueba:

–la presentación de informes y el intercambio de información entre Estados miembros en relación con la aplicación de medidas para aligerar la carga de la prueba en los procedimientos judiciales o extrajudiciales nacionales;

–la información reunida por la Comisión o las autoridades de vigilancia del mercado en virtud de la Ley de IA (en particular su artículo 62) u otros instrumentos pertinentes;

–información y análisis en apoyo de la evaluación de la Ley de IA y de los informes que deba elaborar la Comisión sobre la aplicación de dicha Ley;

–información y análisis que respalden la evaluación de las futuras medidas políticas pertinentes con arreglo al «antiguo enfoque» de la legislación en materia de seguridad para garantizar que los productos introducidos en el mercado de la Unión cumplan unos requisitos elevados en materia de salud, seguridad y medio ambiente;

–información y análisis en apoyo del informe de la Comisión sobre la aplicación de la Directiva sobre el seguro de vehículos automóviles a los avances tecnológicos (en particular, a los vehículos autónomos y semiautónomos) de conformidad con su artículo 28 quater, apartado 2, letra a).

* Explicación detallada de las disposiciones específicas de la propuesta

1. Objeto y ámbito de aplicación (artículo 1)

El objetivo de la presente Directiva es mejorar el funcionamiento del mercado interior mediante el establecimiento de requisitos uniformes para determinados aspectos de la responsabilidad civil extracontractual por los daños causados con mediación de sistemas de IA. Da continuidad a la Resolución del Parlamento Europeo 2020/2014 (INL) y adapta el Derecho privado a las necesidades de la transición a la economía digital.

La elección de instrumentos jurídicos adecuados es limitada, dada la naturaleza de la cuestión de la carga de la prueba y las características específicas de la IA, que plantean un problema con respecto a las normas de responsabilidad existentes. A este respecto, la presente Directiva aligera la carga de la prueba de manera muy específica y proporcionada mediante el uso de la exhibición y las presunciones refutables (iuris tantum). Establece, para aquellos que soliciten una indemnización por daños y perjuicios, la posibilidad de obtener información sobre los sistemas de IA de alto riesgo que debe registrarse o documentarse de conformidad con la Ley de IA. Además, las presunciones refutables ofrecerán a quienes soliciten una indemnización por los daños causados por sistemas de IA una carga de la prueba más razonable y una oportunidad de que sus demandas de responsabilidad fundadas prosperen.

Estas herramientas no son nuevas; pueden encontrarse en los sistemas legislativos nacionales. Por lo tanto, estas herramientas nacionales constituyen puntos de referencia útiles sobre cómo abordar las cuestiones planteadas por la IA en relación con las normas de responsabilidad en vigor de manera que se interfiera lo menos posible en los diferentes regímenes jurídicos nacionales.

Además, cuando se les preguntó sobre cambios de mayor alcance, como una inversión de la carga de la prueba o una presunción irrefutable (iuris et de iure), las empresas respondieron de forma negativa en las consultas. Se eligieron medidas específicas para aligerar la carga de la prueba en forma de presunciones refutables por tratarse de medios pragmáticos y adecuados para ayudar a las víctimas a soportar la carga de la prueba de la manera más específica y proporcionada posible.

El artículo 1 indica el objeto y el ámbito de aplicación de la presente Directiva: se aplica a las demandas civiles de responsabilidad extracontractual por daños y perjuicios causados por un sistema de IA, cuando dichas demandas se interpongan en el marco de regímenes de responsabilidad subjetiva (por culpa). Esto se refiere, en particular, a los regímenes que establecen la responsabilidad legal de indemnizar los daños causados de forma deliberada o por un acto u omisión negligente. Las medidas previstas en la presente Directiva pueden encajar sin problemas en los sistemas de responsabilidad civil en vigor, ya que reflejan un enfoque que no depende de la definición de conceptos fundamentales como «culpa» o «daño», dado que el significado de estos conceptos varía considerablemente entre los Estados miembros de la UE. Así pues, más allá de las presunciones que establece, la presente Directiva no afecta a las normas nacionales o de la Unión que determinan, por ejemplo, qué parte ha de soportar la carga de la prueba, qué grado de certeza es necesario para que haya fuerza probatoria o cómo se define la culpa.

Además, la presente Directiva no afecta a las normas vigentes que regulan las condiciones de responsabilidad en el sector del transporte ni a las establecidas por la Ley de Servicios Digitales.

Aunque la presente Directiva no se aplica a la responsabilidad penal, puede resultar aplicable a la responsabilidad del Estado. Las autoridades estatales también están cubiertas por las disposiciones de la Ley de IA como sujetos de las obligaciones que en ella se establecen.

La presente Directiva no se aplica retroactivamente, sino únicamente a las demandas de indemnización por daños y perjuicios que se produzcan a partir de la fecha de su transposición.

La propuesta de la presente Directiva se ha adoptado junto con la propuesta de revisión de la Directiva 85/374/CEE sobre responsabilidad por los daños causados por productos defectuosos, en un paquete destinado a adaptar las normas de responsabilidad a la era digital y a la IA, garantizando la necesaria armonización entre estos dos instrumentos jurídicos complementarios.

2. Definiciones (artículo 2)

Las definiciones del artículo 2 siguen las de la Ley de IA a fin de garantizar la coherencia.

El artículo 2, apartado 6, letra b), establece que las demandas por daños y perjuicios pueden ser interpuestas no solo por el perjudicado, sino también por las personas que lo hayan sucedido o se hayan subrogado en sus derechos. La subrogación es la asunción por un tercero (como una compañía de seguros) del derecho legal de otra parte a cobrar una deuda o una indemnización por daños y perjuicios. De este modo, una persona tiene derecho a hacer valer los derechos de otra en beneficio propio. La subrogación también abarcaría a los herederos de una víctima fallecida.

Además, el artículo 2, apartado 6, letra c), establece que también puede interponer una demanda por daños y perjuicios una persona que actúe en nombre de una o varias partes perjudicadas, de conformidad con el Derecho de la Unión o nacional. Esta disposición tiene por objeto brindar más posibilidades a las personas perjudicadas por un sistema de IA de que un tribunal conozca de su demanda, incluido en aquellos casos en interponer una demanda individual pueda parecer demasiado costoso o engorroso, o cuando una demanda conjunta pueda conllevar beneficios de escala. Para que las víctimas de daños causados por sistemas de IA puedan hacer valer sus derechos en relación con la presente Directiva mediante acciones de representación, el artículo 6 modifica el anexo I de la Directiva (UE) 2020/1828.

3. Exhibición de pruebas (artículo 3)

La presente Directiva pretende proporcionar a las personas que soliciten una indemnización por los daños causados por sistemas de IA de alto riesgo medios eficaces para determinar las personas potencialmente responsables y las pruebas pertinentes de cara a una demanda. Al mismo tiempo, estos medios sirven para excluir a posibles demandados determinados erróneamente, ahorrando tiempo y costes a las partes implicadas y reduciendo la carga de trabajo de los tribunales.

A este respecto, el artículo 3, apartado 1, de la Directiva establece que un órgano jurisdiccional puede ordenar la exhibición de pruebas pertinentes relativas a sistemas de IA de alto riesgo específicos de los que se sospeche que han causado daños. Las solicitudes de pruebas se dirigen al proveedor de un sistema de IA, a una persona sujeta a las obligaciones del proveedor establecidas en el artículo 24 o el artículo 28, apartado 1, de la Ley de IA, o a un usuario con arreglo a la Ley de IA. Las solicitudes deben estar respaldadas por hechos y pruebas suficientes para acreditar la viabilidad de la demanda por daños y perjuicios prevista y las pruebas solicitadas deben estar a disposición de los destinatarios. Las solicitudes no pueden dirigirse a partes que no estén sujetas a obligaciones en virtud de la Ley de IA y que, por tanto, no tengan acceso a las pruebas.

De conformidad con el artículo 3, apartado 2, el demandante solo puede solicitar la exhibición de pruebas a proveedores o usuarios que no sean demandados en caso de que se hayan realizado sin éxito todos los intentos proporcionados de obtener las pruebas del demandado.

Para que los medios judiciales sean eficaces, el artículo 3, apartado 3, de la Directiva establece que un órgano jurisdiccional también puede ordenar la conservación de tales pruebas.

De conformidad con el artículo 3, apartado 4, párrafo primero, el órgano jurisdiccional únicamente puede ordenar dicha exhibición en la medida necesaria para sustentar la demanda, dado que la información podría constituir una prueba fundamental para la demanda de la persona perjudicada en caso de daños en los que hayan mediado sistemas de IA.

Al limitar la obligación de exhibición o conservación a las pruebas necesarias y proporcionadas, el artículo 3, apartado 4, párrafo primero, pretende garantizar la proporcionalidad en la exhibición de las pruebas, es decir, limitar la exhibición al mínimo necesario e impedir solicitudes genéricas.

El artículo 3, apartado 4, párrafos segundo y tercero, tiene también por objeto lograr un equilibrio entre los derechos del demandante y la necesidad de garantizar que dicha exhibición esté sujeta a garantías que protejan los intereses legítimos de todas las partes interesadas, como los secretos comerciales o la información confidencial.

En el mismo contexto, el artículo 3, apartado 4, párrafo cuarto, tiene por objeto garantizar que la persona sujeta a la orden de exhibición o conservación tenga remedios procesales a su disposición.

El artículo 3, apartado 5, introduce una presunción de incumplimiento de un deber de diligencia. Se trata de una herramienta procesal, pertinente únicamente en aquellos casos en que sea el propio demandado en una demanda por daños y perjuicios quien soporte las consecuencias del incumplimiento de una solicitud de exhibición o conservación de pruebas. Al demandado le asistirá el derecho de refutar esa presunción. La medida establecida en este apartado tiene por objeto promover la exhibición, pero también acelerar los procedimientos judiciales.

4. Presunción de relación de causalidad en caso de culpa (artículo 4)

En lo que respecta a los daños causados por sistemas de IA, la presente Directiva pretende proporcionar un fundamento eficaz para reclamar una indemnización en relación con la culpa consistente en el incumplimiento de un deber de diligencia en virtud del Derecho de la Unión o nacional.

Puede resultar difícil para los demandantes probar que existe un nexo causal entre dicho incumplimiento y la información de salida producida por el sistema de IA o la no producción de una información de salida por parte del sistema de IA que haya dado lugar a los daños en cuestión. Por lo tanto, en el artículo 4, apartado 1, se ha establecido una presunción refutable de causalidad específica en relación con este nexo causal. Esta presunción es la medida menos gravosa para dar respuesta a la necesidad de una indemnización justa para la víctima.

El demandante debe demostrar la culpa del demandado con arreglo a las normas nacionales o de la Unión aplicables. Esta culpa puede determinarse, por ejemplo, por incumplimiento de un deber de diligencia en virtud de la Ley de IA o de otras normas establecidas a escala de la Unión, como las que regulan el uso de la supervisión y la toma de decisiones automatizadas para el trabajo en plataformas o las que regulan el funcionamiento de aeronaves no tripuladas. El órgano jurisdiccional también puede presumir la culpa sobre la base del incumplimiento de una orden judicial de exhibición o conservación de pruebas con arreglo al artículo 3, apartado 5. No obstante, solo procede introducir una presunción de causalidad cuando pueda considerarse probable que la culpa en cuestión haya influido en la información de salida del sistema de IA pertinente —o en la ausencia de la información de salida—, lo cual puede evaluarse en función de las circunstancias generales del caso. Al mismo tiempo, el demandante aún tiene que demostrar que el sistema de IA (es decir, su información de salida o la no producción de una información de salida) ha causado los daños.

Los apartados 2 y 3 distinguen entre, por una parte, las demandas interpuestas contra el proveedor de un sistema de IA de alto riesgo o contra una persona sujeta a las obligaciones del proveedor en virtud de la Ley de IA y, por otra parte, las demandas interpuestas contra el usuario de dichos sistemas. A este respecto, sigue las disposiciones respectivas y las condiciones pertinentes de la Ley de IA. En el caso de las demandas fundadas en el artículo 4, apartado 2, el cumplimiento por parte de los demandados de las obligaciones enumeradas en dicho apartado debe evaluarse también a la luz del sistema de gestión de riesgos y sus resultados, es decir, las medidas de gestión de riesgos, con arreglo a la Ley de IA.

En el caso de los sistemas de IA de alto riesgo, tal como se definen en la Ley de IA, el artículo 4, apartado 4, establece una excepción a la presunción de causalidad cuando el demandado demuestre que el demandante puede acceder razonablemente a pruebas y conocimientos especializados suficientes para demostrar el nexo causal. Esta posibilidad puede incentivar a los demandados a cumplir sus obligaciones de exhibición, las medidas establecidas por la Ley de IA para garantizar un alto nivel de transparencia de la IA o los requisitos de documentación y registro.

En el caso de los sistemas de IA de riesgo no elevado, el artículo 4, apartado 5, establece una condición para la aplicabilidad de la presunción de causalidad en virtud de la cual esta última está sujeta a que el órgano jurisdiccional determine que es excesivamente difícil para el demandante demostrar el nexo causal. Tales dificultades deben evaluarse a la luz de las características de determinados sistemas de IA, como la autonomía y la opacidad, que hacen muy difícil en la práctica la explicación del funcionamiento interno del sistema de IA, lo que afecta negativamente a la capacidad del demandante para demostrar el nexo causal entre la culpa del demandado y la información de salida de IA.

En los casos en que el demandado utilice el sistema de IA en el transcurso de una actividad personal y no profesional, el artículo 4, apartado 6, establece que la presunción de causalidad solo debe aplicarse si el demandado ha interferido sustancialmente en las condiciones de funcionamiento del sistema de IA o si el demandado tenía la obligación y estaba en condiciones de determinar las condiciones de funcionamiento del sistema de IA y no lo hizo. Esta condición se justifica por la necesidad de ponderar los intereses de los perjudicados y de los usuarios no profesionales, eximiendo de la aplicación de la presunción de causalidad aquellos casos en que los usuarios no profesionales no incrementen el riesgo a través de su comportamiento.

Por último, el artículo 4, apartado 7, establece que el demandado tiene derecho a refutar la presunción de causalidad basada en el artículo 4, apartado 1.

Estas normas eficaces en materia de responsabilidad civil tienen la ventaja añadida de ofrecer a todos los que participan en actividades relacionadas con sistemas de IA un incentivo adicional para cumplir sus obligaciones en relación con la conducta que se espera de ellos.

5. Evaluación y revisión específica (artículo 5)

Varios ordenamientos jurídicos nacionales prevén diferentes regímenes de responsabilidad objetiva. En su Resolución de propia iniciativa de 20 de octubre de 2020, el Parlamento Europeo también propuso elementos para un régimen de este tipo a escala de la UE, consistentes en un régimen de responsabilidad objetiva limitada para determinadas tecnologías basadas en la IA y en una carga de la prueba facilitada en virtud de normas de responsabilidad subjetiva. Las consultas públicas también pusieron de relieve la preferencia por un régimen de este tipo entre los encuestados (excepto en el caso de las empresas que no son pymes), acompañado o no de un seguro obligatorio.

Sin embargo, la propuesta tiene en cuenta las diferencias entre las tradiciones jurídicas nacionales y el hecho de que el tipo de productos y servicios equipados con sistemas de IA que podrían afectar al público en general y poner en peligro importantes derechos —como el derecho a la vida, a la salud y a la propiedad— y que, por tanto, podrían estar sujetos a un régimen de responsabilidad estricta, todavía no están ampliamente disponibles en el mercado.

Se ha puesto en marcha un programa de seguimiento para proporcionar a la Comisión información sobre incidentes relacionados con sistemas de IA. La revisión específica evaluará si serían necesarias medidas adicionales, como la introducción de un régimen de responsabilidad objetiva o un seguro obligatorio.

6. Incorporación al Derecho nacional (artículo 7)

Al notificar a la Comisión las medidas nacionales de transposición para dar cumplimiento a la presente Directiva, los Estados miembros también deben facilitar documentos explicativos que proporcionen información suficientemente clara y precisa e indiquen, para cada disposición de la presente Directiva, la disposición o disposiciones nacionales que garanticen su transposición. Esto es necesario para que la Comisión pueda determinar, con respecto de cada disposición de la Directiva que requiere transposición, la parte pertinente de las medidas nacionales de transposición que crea la obligación legal correspondiente en el ordenamiento jurídico nacional, independientemente de la forma elegida por los Estados miembros.

2022/0303 (COD) Propuesta de Directiva del Parlamento Europeo y del Consejo relativa a la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial (Directiva sobre responsabilidad en materia de IA)

EL PARLAMENTO EUROPEO Y EL CONSEJO DE LA UNIÓN EUROPEA,

Visto el Tratado de Funcionamiento de la Unión Europea, y en particular su artículo 114,

Vista la propuesta de la Comisión Europea,

Previa transmisión del proyecto de acto legislativo a los Parlamentos nacionales,

Visto el dictamen del Comité Económico y Social Europeo ( ,)

Visto el dictamen del Comité de las Regiones (30),

De conformidad con el procedimiento legislativo ordinario,

Considerando lo siguiente:

(1) La inteligencia artificial («IA») es un conjunto de tecnologías facilitadoras que puede aportar una amplia gama de beneficios en todo el espectro de la economía y la sociedad. Alberga un gran potencial para el progreso tecnológico y permite nuevos modelos de negocio en muchos sectores de la economía digital.

(2) Al mismo tiempo, dependiendo de las circunstancias de su aplicación y uso específicos, la IA puede generar riesgos y perjudicar intereses y derechos protegidos por el Derecho de la Unión o nacional. Por ejemplo, el uso de la IA puede incidir negativamente en una serie de derechos fundamentales, como la vida, la integridad física, la no discriminación y la igualdad de trato. El Reglamento (UE)…/… del Parlamento Europeo y del Consejo [Ley de IA] (31) establece requisitos destinados a reducir los riesgos para la seguridad y los derechos fundamentales, mientras que otros instrumentos del Derecho de la Unión regulan las normas generales (32) y sectoriales de seguridad de los productos aplicables también a las máquinas y sus partes y accesorios (33) y a los equipos radioeléctricos (34) basados en IA. Si bien estos requisitos destinados a reducir los riesgos para la seguridad y los derechos fundamentales tienen por objeto prevenir, hacer un seguimiento y abordar los riesgos para, así, hacer frente a las preocupaciones sociales, no ofrecen ayuda individual a quienes han sufrido daños causados por la IA. Los requisitos existentes prevén, en particular, autorizaciones, controles, seguimiento y sanciones administrativas en relación con los sistemas de IA con el fin de evitar daños. No prevén la indemnización de la persona perjudicada por los daños causados por una información de salida producida por un sistema de IA, o por la no producción de una información de salida.

(3) Cuando un perjudicado solicita la indemnización del perjuicio sufrido, las normas generales de los Estados miembros en materia de responsabilidad subjetiva exigen normalmente al perjudicado que demuestre que ha habido un acto u omisión negligente o intencionadamente perjudicial («culpa») por parte de la persona potencialmente responsable de dicho daño, así como el nexo causal entre dicha culpa y el daño en cuestión. Sin embargo, cuando la IA se interpone entre el acto u omisión de una persona y el daño, las características específicas de determinados sistemas de IA, como la opacidad, el comportamiento autónomo y la complejidad, pueden hacer excesivamente difícil, si no imposible, que el perjudicado satisfaga la carga de la prueba. En particular, puede resultar excesivamente difícil demostrar que un dato de entrada concreto del que es responsable la persona potencialmente responsable ha dado lugar a una información de salida específica de un sistema de IA que, a su vez, ha provocado el daño en cuestión.

(4) En tales casos, el grado de resarcimiento que ofrecen las normas nacionales en materia de responsabilidad civil puede ser menor que en los casos en que las tecnologías que mediaron en la causación del daño son distintas de la IA. Estas diferencias en la indemnización pueden contribuir a reducir el nivel de aceptación social de la IA y la confianza en los productos y servicios basados en la IA.

(5) A fin de aprovechar los beneficios económicos y sociales de la IA y de promover la transición a la economía digital, es necesario adaptar de manera específica determinadas normas nacionales de responsabilidad civil a las características específicas de determinados sistemas de IA. Estas adaptaciones deben contribuir a la confianza de la sociedad y de los consumidores y, de este modo, promover la introducción generalizada de la IA. Estas adaptaciones también deben mantener la confianza en el sistema judicial, garantizando que las víctimas de daños causados en cuya causación haya mediado la IA reciban la misma indemnización efectiva que las víctimas de daños causados por otras tecnologías.

(6) Las partes interesadas — los perjudicados que sufren daños, las personas potencialmente responsables, las aseguradoras — se enfrentan a una inseguridad jurídica en cuanto a la manera en que los órganos jurisdiccionales nacionales podrían, al verse confrontados a los retos característicos de la IA, aplicar las normas vigentes en materia de responsabilidad a casos concretos con el fin de lograr resultados justos. A falta de actuación por parte de la Unión, es probable que al menos algunos Estados miembros adapten sus normas de responsabilidad civil para acometer los problemas de las discrepancias en materia de indemnización y de la inseguridad jurídica relacionados con las características específicas de determinados sistemas de IA. Esto crearía fragmentación jurídica y obstáculos al mercado interior para las empresas que desarrollen o suministren productos o servicios innovadores basados en la IA. Las pymes se verían especialmente afectadas.

(7) La finalidad de la presente Directiva es contribuir al correcto funcionamiento del mercado interior mediante la armonización de determinadas normas nacionales de responsabilidad extracontractual basada en la culpa (subjetiva), a fin de garantizar que las personas que reclamen una indemnización por los daños y perjuicios que les cause un sistema de IA disfruten de un nivel de protección equivalente al de las personas que reclaman una indemnización por los daños causados sin la mediación de un sistema de IA. Este objetivo no puede ser alcanzado de manera suficiente por los Estados miembros porque los obstáculos pertinentes del mercado interior están vinculados al riesgo de medidas normativas unilaterales y fragmentadas a nivel nacional. Dada la naturaleza digital de los productos y servicios comprendidos en el ámbito de aplicación de la presente Directiva, esta última es especialmente pertinente en los contextos transfronterizos.

(8) Por tanto, el objetivo de garantizar la seguridad jurídica y evitar las discrepancias en la indemnización en aquellos casos en que medien sistemas de IA puede lograrse mejor a escala de la Unión. Por consiguiente, la Unión puede adoptar medidas con arreglo al principio de subsidiariedad contemplado en el artículo 5 del TUE. De conformidad con el principio de proporcionalidad establecido en el mismo artículo, la presente Directiva no excede de lo necesario para alcanzar dichos objetivos.

(9) Por lo tanto, es necesario armonizar de manera específica aspectos específicos de las normas sobre responsabilidad subjetiva a escala de la Unión. Dicha armonización debe aumentar la seguridad jurídica y crear unas condiciones de competencia equitativas para los sistemas de IA, mejorando así el funcionamiento del mercado interior en lo que respecta a la producción y difusión de productos y servicios basados en la IA.

(10) Para garantizar la proporcionalidad, conviene armonizar de manera específica únicamente las normas de responsabilidad subjetiva que rigen la carga de la prueba para las personas que reclamen una indemnización por daños y perjuicios causados por sistemas de IA. La presente Directiva no debe armonizar los aspectos generales de la responsabilidad civil que estén regulados de diferentes maneras por las normas nacionales de responsabilidad civil, como la definición de la culpa o la causalidad, los diferentes tipos de daños que dan lugar a demandas por daños y perjuicios, la distribución de la responsabilidad entre varios causantes de los daños, la concurrencia de culpas, el cálculo de los daños y perjuicios o los plazos de prescripción.

(11) Las leyes de los Estados miembros relativas a la responsabilidad de los productores por los daños causados por el carácter defectuoso de sus productos ya están armonizadas a escala de la Unión mediante la Directiva 85/374/CEE del Consejo (35) . Sin embargo, dichas leyes no afectan a las normas de los Estados miembros en materia de responsabilidad contractual o extracontractual sobre aspectos como la garantía, la culpa o la responsabilidad objetiva, basada en motivos distintos de los defectos del producto. Si bien, al mismo tiempo, la revisión de la Directiva 85/374/CEE del Consejo pretende aclarar y garantizar que el perjudicado pueda reclamar una indemnización por los daños causados por productos defectuosos basados en la IA, debe aclararse, por tanto, que las disposiciones de la presente Directiva no afectan a los derechos que el perjudicado pueda tener en virtud de las normas nacionales de transposición de la Directiva 85/374/CEE. Además, en el ámbito del transporte, el Derecho de la Unión que regula la responsabilidad de los transportistas no debe verse afectado por la presente directiva.

(12) [La Ley de Servicios Digitales (LSD) (36)] armoniza plenamente las normas aplicables a los prestadores de servicios intermediarios en el mercado interior, cubriendo los riesgos sociales derivados de los servicios ofrecidos por dichos proveedores, incluido en lo que respecta a los sistemas de IA que utilizan. La presente Directiva no afecta a las disposiciones de la [Ley de Servicios Digitales (LSD)] que proporcionan un marco integral y plenamente armonizado respecto de las obligaciones de diligencia debida para la toma de decisiones algorítmica por parte de los prestadores de servicios de alojamiento de datos, incluida la exención de responsabilidad por la difusión de contenidos ilícitos cargados por los destinatarios de sus servicios cuando se cumplan las condiciones de dicho Reglamento.

(13) Salvo en lo que se refiere a las presunciones que establece, la presente Directiva no armoniza las legislaciones nacionales en lo relativo a la parte sobre la que recae la carga de la prueba o al grado de certeza necesario para que haya fuerza probatoria.

(14) La presente Directiva debe seguir un enfoque de armonización mínima, ya que así se permite a los demandantes en casos de daños causados por sistemas de IA invocar normas más favorables del Derecho nacional. Así pues, las legislaciones nacionales podrían, por ejemplo, mantener la inversión de la carga de la prueba en el contexto de regímenes nacionales de responsabilidad subjetiva (basada en la culpa) o de regímenes nacionales de responsabilidad sin culpa (conocida como «responsabilidad objetiva») —de los que ya existe una gran variedad en las legislaciones nacionales— que puedan resultar de aplicación a los daños causados por sistemas de IA.

(15) También debe garantizarse la coherencia con [la Ley de IA]. Procede, por tanto, que la presente Directiva utilice las mismas definiciones con respecto a los sistemas de IA, los proveedores y los usuarios. Además, la presente Directiva solo debe abarcar las demandas por daños y perjuicios que hayan sido causados por una información de salida —o por la no producción de una información de salida— imputable a un sistema de IA cuando medie culpa de una persona, por ejemplo, el proveedor o el usuario con arreglo a la [Ley de IA]. No es necesario abarcar las demandas de responsabilidad cuando los daños hayan sido causados por una evaluación humana seguida de una acción u omisión humana y el sistema de IA se haya limitado a proporcionar información o asesoramiento que fue tenido en cuenta por el agente humano de que se trate. En este último caso, es posible atribuir los daños causados a una acción u omisión humana, ya que la información de salida del sistema de IA no se interpone entre la acción u omisión humana y el daño, por lo que establecer la causalidad no es más difícil que en situaciones en las que no interviene un sistema de IA.

(16) El acceso a información sobre sistemas de IA de alto riesgo específicos de los que se sospecha que han causado daños y perjuicios es un factor importante a la hora de determinar si procede reclamar una indemnización y de fundamentar las demandas de indemnización. Además, en el caso de los sistemas de IA de alto riesgo, [la Ley de IA] establece requisitos específicos de documentación, información y registro, pero no otorga al perjudicado el derecho a acceder a dicha información. Procede, por tanto, establecer normas sobre la exhibición de los medios de prueba pertinentes por parte de quienes los tengan a su disposición a efectos de determinar la responsabilidad. Esto también debe ofrecer un incentivo adicional para cumplir los requisitos pertinentes establecidos en la [Ley de IA] para documentar o registrar la información pertinente.

(17) El gran número de personas que suele participar en el diseño, el desarrollo, la introducción generalizada y el funcionamiento de sistemas de IA de alto riesgo hace difícil que los perjudicados identifiquen a la persona potencialmente responsable de los daños causados y demuestren que se cumplen las condiciones para interponer una demanda por daños y perjuicios. Para que los perjudicados puedan determinar si una demanda por daños y perjuicios es fundada, conviene conceder a los demandantes potenciales el derecho a solicitar a un órgano jurisdiccional que ordene la exhibición de las pruebas pertinentes antes de presentar una demanda por daños y perjuicios. Dicha exhibición solo debe ordenarse cuando el demandante potencial presente hechos e información suficientes para acreditar la viabilidad de una demanda por daños y perjuicios y haya presentado previamente una solicitud al proveedor, a la persona sujeta a las obligaciones de un proveedor o al usuario para que exhiba dichas pruebas que obran en su poder sobre sistemas de IA de alto riesgo específicos de los que se sospeche que han causado daños y perjuicios, y que esta solicitud haya sido denegada. La orden de exhibición debe llevar a una reducción de los litigios innecesarios y evitar costes a los posibles litigantes causados por demandas sin fundamento o con pocas posibilidades de prosperar. La negativa del proveedor, de la persona sujeta a las obligaciones de un proveedor o del usuario previa a la solicitud de exhibición de pruebas al órgano jurisdiccional no debe dar lugar a la presunción de incumplimiento de las obligaciones de diligencia pertinentes por parte de la persona que deniegue dicha exhibición.

(18) La limitación de la exhibición de pruebas en lo que respecta a los sistemas de IA de alto riesgo es coherente con la [Ley de IA], que establece determinadas obligaciones específicas en materia de documentación, conservación de registros e información para los operadores que participan en el diseño, el desarrollo y la introducción de sistemas de IA de alto riesgo. Esta coherencia también garantiza la proporcionalidad necesaria al evitar que los operadores de sistemas de IA que planteen un riesgo menor o nulo tengan que documentar la información con un grado de detalle similar al exigido en el caso de los sistemas de IA de alto riesgo en virtud de la [Ley de IA].

(19) Los órganos jurisdiccionales nacionales deben poder ordenar, en el transcurso de un proceso civil, la exhibición o conservación de pruebas pertinentes relacionadas con los daños causados por sistemas de IA de alto riesgo a personas que ya estén obligadas a documentar o registrar información en virtud de la [Ley de IA], ya se trate de proveedores, de personas sujetas a las mismas obligaciones que los proveedores o de usuarios de un sistema de IA, y ya sean estos demandados o terceros con respecto a la demanda. Podrían darse situaciones en las que las pruebas pertinentes para el asunto obren en poder de entidades que no sean parte en la demanda por daños y perjuicios, pero que estén obligadas a documentar o registrar dichas pruebas de conformidad con la [Ley de IA]. Por lo tanto, es necesario fijar las condiciones en que se puede ordenar a tales terceros con respecto a la demanda que exhiban las pruebas pertinentes.

(20) Para mantener el equilibrio entre los intereses de las partes en la demanda por daños y perjuicios y los de los terceros afectados, los órganos jurisdiccionales deben ordenar la exhibición de pruebas únicamente cuando sea necesario y proporcionado para sustentar la demanda real o potencial por daños y perjuicios. A este respecto, la exhibición solo debe referirse a las pruebas que sean necesarias para adoptar una decisión sobre la correspondiente demanda por daños y perjuicios, por ejemplo, solo las partes de los registros o conjuntos de datos pertinentes necesarias para demostrar el incumplimiento de un requisito fijado por la [Ley de IA]. Para garantizar la proporcionalidad de tales medidas de exhibición o conservación, los órganos jurisdiccionales nacionales deben disponer de medios eficaces para salvaguardar los intereses legítimos de todas las partes implicadas, por ejemplo la protección de los secretos comerciales en el sentido de la Directiva (UE) 2016/943 del Parlamento Europeo y del Consejo (37) y de la información confidencial como, por ejemplo, la relacionada con la seguridad pública o nacional. Por lo que respecta a los secretos comerciales o a los presuntos secretos comerciales que el órgano jurisdiccional haya considerado como confidenciales en el sentido de la Directiva (UE) 2016/943, los órganos jurisdiccionales nacionales deben estar facultados para adoptar medidas específicas que garanticen la confidencialidad de los secretos comerciales durante y después del proceso, al tiempo que se logra un equilibrio justo y proporcionado entre el interés del poseedor del secreto comercial en mantener el secreto y el interés de la persona perjudicada. Esto debe incluir medidas para restringir el acceso a los documentos que contengan secretos comerciales y el acceso a las audiencias o los documentos y sus transcripciones a un número limitado de personas. Al decidir sobre tales medidas, los órganos jurisdiccionales nacionales deben tener en cuenta la necesidad de garantizar el derecho a la tutela judicial efectiva y a un juez imparcial, los intereses legítimos de las partes y, en su caso, de terceros, así como el perjuicio que pudiera ocasionarse a cualquiera de las partes o, en su caso, a terceros, como consecuencia de que se acuerden o no dichas medidas. Por otra parte, a fin de garantizar una aplicación proporcionada de las medidas de exhibición dirigidas a terceros en las demandas por daños y perjuicios, los órganos jurisdiccionales nacionales deben ordenar la exhibición por parte de terceros únicamente si las pruebas no pueden obtenerse del demandado.

(21) Si bien los órganos jurisdiccionales nacionales disponen de medios para hacer ejecutar sus órdenes de exhibición a través de diversas medidas, tales medidas de ejecución podrían retrasar las demandas por daños y perjuicios y, por tanto, generar gastos adicionales para los litigantes. Para los perjudicados, tales retrasos y gastos adicionales pueden dificultar su acceso a la tutela judicial efectiva. Por lo tanto, cuando un demandado en una demanda de indemnización por daños y perjuicios no exhibe las pruebas a su disposición según lo ordenado por un órgano jurisdiccional, procede establecer una presunción de incumplimiento de las obligaciones de diligencia que dichas pruebas debían demostrar. Esta presunción refutable reducirá la duración de los litigios y redundará en una mayor eficiencia de los procedimientos judiciales. El demandado debe poder refutar esta presunción presentando pruebas en contrario.

(22) A fin de hacer frente a las dificultades para demostrar que un dato de entrada concreto del que es responsable la persona potencialmente responsable dio lugar a una información de salida específica de un sistema de IA que, a su vez, provocó el daño en cuestión, procede establecer, en determinadas condiciones, una presunción de causalidad. Si bien, en las demandas basadas en la culpa, el demandante normalmente tiene que probar el daño, la acción u omisión humana que determina la culpa del demandado y el vínculo de causalidad entre ambos, la presente Directiva no armoniza las condiciones en las que los órganos jurisdiccionales nacionales establecen la culpa. Siguen rigiéndose por el Derecho nacional aplicable y, cuando haya habido armonización, por el Derecho de la Unión aplicable. Del mismo modo, la presente Directiva no armoniza las condiciones relacionadas con los daños, por ejemplo, la cuestión de qué daños son indemnizables, que también están regulados por la legislación nacional y de la Unión aplicable. Para que se aplique la presunción de causalidad en virtud de la presente Directiva, la culpa del demandado debe establecerse como una acción u omisión humana que no se ajuste a un deber de diligencia derivado del Derecho de la Unión o nacional directamente destinado a proteger contra los daños que se hayan producido. Así pues, esta presunción puede aplicarse, por ejemplo, en demandas de indemnización por lesiones corporales cuando el órgano jurisdiccional establezca la culpa del demandado por incumplimiento de las instrucciones de uso destinadas a evitar daños a personas físicas. El incumplimiento de deberes de diligencia no destinados directamente a proteger contra los daños producidos no da lugar a la aplicación de la presunción; así, por ejemplo, el hecho de que un proveedor no presentase la documentación requerida ante las autoridades competentes no daría lugar a la aplicación de la presunción en las demandas de indemnización por lesiones corporales. También debe ser necesario establecer que puede considerarse razonablemente probable, basándose en las circunstancias del caso, que la culpa haya influido en la información de salida producida por el sistema de IA o en que el sistema de IA no haya producido una información de salida. Por último, debe exigirse al demandante que demuestre que la información de salida o la no producción de información de salida dio lugar al daño.

(23) Esta culpa puede establecerse en relación con el incumplimiento de las normas de la Unión que regulan específicamente los sistemas de IA de alto riesgo, como los requisitos introducidos para determinados sistemas de IA de alto riesgo por la [Ley de IA], los requisitos que pueden introducirse mediante la futura legislación sectorial para otros sistemas de IA de alto riesgo de conformidad con el [artículo 2, apartado 2, de la Ley de IA], o los deberes de diligencia vinculados a determinadas actividades y que son aplicables con independencia de que la IA se utilice o no para esa actividad. Al mismo tiempo, la presente Directiva ni crea ni armoniza los requisitos o la responsabilidad de las entidades cuya actividad está regulada por dichos actos jurídicos y, por tanto, no da lugar a nuevas demandas de responsabilidad. La prueba del incumplimiento de tales requisitos determinantes de la culpa se llevará a cabo de conformidad con las disposiciones de dichas normas aplicables del Derecho de la Unión, ya que la presente Directiva ni introduce nuevos requisitos ni afecta a los vigentes. Por ejemplo, la exención de responsabilidad de los prestadores de servicios intermediarios y las obligaciones de diligencia debida a las que están sujetos en virtud de la [Ley de Servicios Digitales] no se ven afectadas por la presente Directiva. Del mismo modo, el cumplimiento de los requisitos impuestos a las plataformas en línea para evitar la comunicación no autorizada al público de obras protegidas por derechos de autor debe establecerse en virtud de la Directiva (UE) 2019/790 sobre los derechos de autor y derechos afines en el mercado único digital y otra legislación pertinente de la Unión en materia de derechos de autor.

(24) En los ámbitos no armonizados por el Derecho de la Unión, sigue siendo de aplicación el Derecho nacional y la existencia de culpa se determina en virtud de la legislación nacional aplicable. Todos los regímenes nacionales de responsabilidad establecen obligaciones de diligencia y adoptan como norma de conducta diferentes expresiones del principio de que se debe actuar como una persona razonable, que también garantizan el funcionamiento seguro de los sistemas de IA con el fin de evitar el menoscabo de los intereses jurídicos protegidos. Estos deberes de diligencia podrían, por ejemplo, exigir a los usuarios de sistemas de IA que elijan para determinadas tareas un sistema de IA concreto con características determinadas o que excluyan a determinados segmentos de una población de la exposición a un sistema de IA concreto. La legislación nacional también puede introducir obligaciones específicas destinadas a prevenir los riesgos de determinadas actividades que sean de aplicación con independencia de que la IA se utilice o no para esa actividad, por ejemplo, normas de tráfico u obligaciones diseñadas específicamente para los sistemas de IA como, por ejemplo, requisitos nacionales adicionales para los usuarios de sistemas de IA de alto riesgo de conformidad con el artículo 29, apartado 2, de la [Ley de IA]. La presente Directiva no introduce tales requisitos ni afecta a las condiciones para determinar la existencia de culpa en caso de incumplimiento de dichos requisitos.

(25) Aun cuando se demuestre la existencia de una culpa consistente en el incumplimiento de un deber de diligencia destinado directamente a proteger contra los daños sufridos, no toda culpa debe dar lugar a la aplicación de la presunción refutable que la vincula a la información de salida de la IA. Tal presunción solo debe aplicarse cuando pueda considerarse razonablemente probable, en función de las circunstancias en las que se produjo el daño, que dicha culpa ha influido en la información de salida producida por el sistema de IA o en la no producción de la información de salida por parte del sistema de IA que haya dado lugar al daño. Por ejemplo, puede considerarse razonablemente probable que la culpa ha influido en la información de salida o en la no producción de una información de salida cuando dicha culpa consista en el incumplimiento de un deber de diligencia con respecto a la limitación del perímetro de funcionamiento del sistema de IA y los daños se hayan producido fuera del perímetro de funcionamiento. Por el contrario, no puede considerarse razonablemente probable que el incumplimiento de la obligación de presentar determinados documentos o de registrarse ante una autoridad determinada —aunque ello pueda estar previsto para esa actividad concreta o incluso ser expresamente aplicable al funcionamiento de un sistema de IA— ha influido en la información de salida producida por el sistema de IA o en la no producción de dicha información de salida por sistema de IA.

(26) La presente Directiva cubre la culpa constitutiva de incumplimiento de determinados requisitos enumerados en los capítulos 2 y 3 de la [Ley de IA] para los proveedores y usuarios de sistemas de IA de alto riesgo, cuyo incumplimiento puede dar lugar, en determinadas condiciones, a una presunción de causalidad. La Ley de IA prevé la plena armonización de los requisitos aplicables a los sistemas de IA, a menos que en ella se establezca expresamente lo contrario. Armoniza los requisitos específicos para los sistemas de IA de alto riesgo. Por lo tanto, a efectos de las demandas por daños y perjuicios en las que se aplica una presunción de causalidad con arreglo a la presente Directiva, la posible culpa de los proveedores o de las personas sujetas a las obligaciones de un proveedor en virtud de la [Ley de IA] solo se establece mediante el incumplimiento de dichos requisitos. Dado que, en la práctica, puede resultar difícil para el demandante demostrar dicho incumplimiento cuando el demandado es un proveedor del sistema de IA, y en plena coherencia con la lógica de la [Ley de IA], la presente Directiva también debe establecer que las medidas adoptadas por el proveedor en el marco del sistema de gestión de riesgos y los resultados del sistema de gestión de riesgos, es decir, la decisión de adoptar o no determinadas medidas de gestión de riesgos, deben tenerse en cuenta a la hora de determinar si el proveedor ha cumplido los requisitos pertinentes de la Ley de IA a que se refiere la presente Directiva. El sistema de gestión de riesgos adoptado por el proveedor de conformidad con la [Ley de IA] es un proceso iterativo continuo que se aplica a lo largo de todo el ciclo de vida del sistema de IA de alto riesgo mediante el cual el proveedor garantiza el cumplimiento de los requisitos obligatorios destinados a mitigar los riesgos y, por tanto, puede ser un elemento útil a efectos de la evaluación de dicho cumplimiento. La presente Directiva también abarca los casos de culpa de los usuarios cuando dicha culpa consista en el incumplimiento de determinadas exigencias específicas establecidas por la [Ley de IA]. Además, la culpa de los usuarios de sistemas de IA de alto riesgo puede determinarse a raíz del incumplimiento de otras obligaciones de diligencia establecidas en el Derecho de la Unión o nacional, a la luz del artículo 29, apartado 2, de la [Ley de IA].

(27) Si bien las características específicas de determinados sistemas de IA, como la autonomía y la opacidad, podrían dificultar excesivamente al demandante la satisfacción de la carga de la prueba, podrían darse situaciones en las que no se den tales dificultades por disponer el demandante de suficientes pruebas y conocimientos especializados para demostrar el nexo causal. Este podría ser el caso, por ejemplo, de los sistemas de IA de alto riesgo respecto de los cuales el demandante podría tener un acceso razonable a pruebas y conocimientos especializados suficientes mediante requisitos de documentación y registro de conformidad con la [Ley de IA]. En tales situaciones, el órgano jurisdiccional no debe aplicar la presunción.

(28) La presunción de causalidad también podría aplicarse a los sistemas de IA que no sean de alto riesgo, ya que podría haber dificultades de prueba excesivas para el demandante. Por ejemplo, tales dificultades podrían evaluarse a la luz de las características de determinados sistemas de IA, como la autonomía y la opacidad, que hacen muy difícil en la práctica la explicación del funcionamiento interno del sistema de IA, lo que afecta negativamente a la capacidad del demandante para demostrar el nexo causal entre la culpa del demandado y la información de salida de IA. Los órganos jurisdiccionales nacionales deben aplicar la presunción cuando el demandante se encuentre en una situación excesivamente difícil para demostrar la causalidad por verse en la obligación de explicar la manera en que el acto u omisión humano determinante de la culpa llevó al sistema de IA a producir la información de salida que dio lugar al daño o a no producir la información de salida cuya ausencia dio lugar al daño. Sin embargo, no debe exigirse al demandante que explique las características del sistema de IA de que se trate ni el modo en que estas características dificultan la determinación del nexo causal.

(29) La aplicación de la presunción de causalidad tiene por objeto garantizar al perjudicado un nivel de protección similar al existente en aquellas situaciones en las que no interviene la IA y en las que, por tanto, la causalidad puede ser más fácil de demostrar. No obstante, el aligeramiento de la carga de probar la causalidad no siempre es apropiado en virtud de la presente Directiva cuando el demandado no sea un usuario profesional, sino una persona que utiliza el sistema de IA para sus actividades privadas. En tales circunstancias, a fin de lograr un equilibrio entre los intereses de los perjudicados y los de los usuarios no profesionales, ha de tenerse en cuenta si dichos usuarios no profesionales pueden aumentar, mediante su comportamiento, el riesgo de que un sistema de IA cause daños. Si el proveedor de un sistema de IA ha cumplido todas sus obligaciones y, en consecuencia, se ha considerado que dicho sistema es suficientemente seguro para ser comercializado con vistas a un uso determinado por usuarios no profesionales y, a continuación, se utiliza con dicha finalidad, no debe aplicarse una presunción de causalidad por la mera puesta en funcionamiento de dicho sistema por parte de tales usuarios no profesionales. A los usuarios no profesionales que compren sistemas de IA y simplemente lo pongan en funcionamiento con arreglo a su finalidad, sin interferir sustancialmente en las condiciones de funcionamiento, no se les debe aplicar la presunción de causalidad establecida en la presente Directiva. No obstante, si un órgano jurisdiccional nacional determina que un usuario no profesional ha interferido sustancialmente en las condiciones de funcionamiento de un sistema de IA o que este tenía la obligación y estaba en condiciones de determinar las condiciones de funcionamiento del sistema de IA y no lo hizo, entonces debe aplicarse la presunción de causalidad, siempre y cuando se cumplan todas las demás condiciones. Este podría ser el caso, por ejemplo, cuando el usuario no profesional no respeta las instrucciones de uso u otras obligaciones de diligencia aplicables a la hora de elegir el ámbito de operación o de fijar las condiciones de funcionamiento del sistema de IA. Esto se entiende sin perjuicio del hecho de que el proveedor debe determinar la finalidad prevista de los sistemas de IA, incluidos el contexto y las condiciones específicas de uso, y eliminar o minimizar los riesgos de dicho sistema según convenga en el momento del diseño y el desarrollo, teniendo en cuenta los conocimientos y la experiencia de los usuarios previstos.

(30) Dado que la presente Directiva introduce una presunción refutable (iuris tantum), el demandado debe tener la posibilidad de refutarla, en particular demostrando que su culpa no puede haber sido la causa del daño.

(31) Es necesario prever una revisión de la presente Directiva [cinco años] después de la finalización del período de transposición. En particular, mediante dicha revisión debe examinarse si es necesario adoptar normas de responsabilidad objetiva (sin culpa) para las demandas contra el operador —siempre que estas no estén ya cubiertas por otras normas de responsabilidad de la Unión, en particular la Directiva 85/374/CEE— combinadas con un seguro obligatorio para la explotación de determinados sistemas de IA, tal como ha sugerido el Parlamento Europeo (38) . De conformidad con el principio de proporcionalidad, procede evaluar dicha necesidad a la luz de la evolución tecnológica y normativa pertinente en los próximos años, teniendo en cuenta el efecto y la incidencia en la introducción generalizada y la adopción de los sistemas de IA, especialmente para las pymes. Dicha revisión debe tener en cuenta, entre otras cosas, los riesgos que conlleven daños a bienes jurídicos importantes como la vida, la salud y la propiedad de terceros ajenos a estos riesgos a través de la utilización de productos o servicios basados en la IA. Dicha revisión también debe analizar la eficacia de las medidas previstas en la presente Directiva para hacer frente a tales riesgos, así como el desarrollo de soluciones adecuadas por parte del mercado de seguros. Para garantizar la disponibilidad de la información necesaria para llevar a cabo dicha revisión, es menester reunir los datos y demás elementos de prueba necesarios sobre las cuestiones pertinentes.

(32) Habida cuenta de la necesidad de realizar adaptaciones en las normas nacionales de responsabilidad civil y procesales con el fin de fomentar la introducción generalizada de productos y servicios basados en la IA en condiciones beneficiosas para el mercado interior, de aceptación social y de confianza de los consumidores en la tecnología de la IA y en el sistema judicial, conviene fijar un plazo máximo de [dos años desde la entrada en vigor] de la presente Directiva para que los Estados miembros adopten las medidas de transposición necesarias.

(33) De conformidad con la Declaración política conjunta, de 28 de septiembre de 2011, de los Estados miembros y de la Comisión sobre los documentos explicativos (39) , en casos justificados, los Estados miembros se comprometen a adjuntar a la notificación de las medidas de transposición uno o varios documentos que expliquen la relación entre los componentes de una directiva y las partes correspondientes de los instrumentos nacionales de transposición. Por lo que respecta a la presente Directiva, el legislador considera que la transmisión de tales documentos está justificada.

HAN ADOPTADO LA PRESENTE DIRECTIVA:

Artículo 1. Objeto y ámbito de aplicación

1. La presente Directiva establece normas comunes sobre:

a) la exhibición de pruebas relativas a sistemas de inteligencia artificial (IA) de alto riesgo con el fin de permitir a los demandantes fundamentar sus demandas de responsabilidad civil extracontractual subjetiva (basada en la culpa) por daños y perjuicios;

b) la carga de la prueba en el caso de demandas de responsabilidad civil extracontractual subjetiva (basada en la culpa) interpuestas ante tribunales nacionales por daños y perjuicios causados por sistemas de IA.

2. La presente Directiva se aplica a las demandas de responsabilidad civil extracontractual subjetiva (basada en la culpa) en aquellos casos en que los daños y perjuicios causados por un sistema de IA se produzcan después de [el final del período de transposición].

La presente Directiva no es aplicable a la responsabilidad penal.

3. La presente Directiva no afectará a:

a) las normas del Derecho de la Unión que regulan las condiciones de responsabilidad en el ámbito del transporte;

b) los derechos que puedan asistir a un perjudicado en virtud de las normas nacionales de transposición de la Directiva 85/374/CEE;

c) las exenciones de responsabilidad y las obligaciones de diligencia debida establecidas en [la Ley de servicios digitales], y

d) las normas nacionales que determinen qué parte ha de soportar la carga de la prueba, qué grado de certeza se exige para que haya fuerza probatoria o cómo se define la culpa, con excepción de lo previsto en los artículos 3 y 4.

4. Los Estados miembros podrán adoptar o mantener normas nacionales más favorables para que los demandantes fundamenten sus demandas civiles de responsabilidad extracontractual por daños y perjuicios causados por sistemas de IA, siempre que dichas normas sean compatibles con el Derecho de la Unión.

Artículo 2. Definiciones

A los efectos de la presente Directiva, se entenderá por:

1) «sistema de IA»: un sistema de IA tal como se define en [el artículo 3, apartado 1, de la Ley de IA];

2)«sistema de IA de alto riesgo»: un sistema de IA de alto riesgo de los mencionados en [el artículo 6 de la Ley de IA];

3) «proveedor»: un proveedor tal como se define en [el artículo 3, apartado 2, de la Ley de IA];

4) «usuario»: un usuario tal como se define en [el artículo 3, apartado 4, de la Ley de IA];

5) «demanda por daños y perjuicios»: una demanda de responsabilidad civil extracontractual subjetiva (basada en la culpa) por la que se solicita una indemnización por los daños y perjuicios causados por una información de salida de un sistema de IA o por la no producción por parte de dicho sistema de una información de salida que debería haber producido;

6) «demandante»: persona que interpone una demanda por daños y perjuicios y que:

a) se ha visto perjudicada por la información de salida de un sistema de IA o por la no producción por parte de dicho sistema de una información de salida que debería haber producido;

b) ha sucedido a una persona perjudicada o se ha subrogado en su derecho en virtud de una ley o contrato; o

c) actúa en nombre de uno o varios perjudicados, de conformidad con el Derecho de la Unión o nacional;

7) «demandante potencial»: persona física o jurídica que está considerando la posibilidad de presentar una demanda por daños y perjuicios, pero que aún no lo ha hecho;

8) «demandado»: la persona contra la que se interpone una demanda por daños y perjuicios;

9) «deber de diligencia»: norma de conducta exigida establecida por el Derecho nacional o de la Unión con el fin de evitar daños a bienes jurídicos reconocidos a nivel nacional o de la Unión, incluidos la vida, la integridad física, la propiedad y la protección de los derechos fundamentales.

Artículo 3. Exhibición de pruebas y presunción refutable de incumplimiento

1. Los Estados miembros velarán por que los órganos jurisdiccionales nacionales estén facultados, ya sea a petición de un demandante potencial que haya solicitado previamente a un proveedor, a una persona sujeta a las obligaciones de un proveedor con arreglo al [artículo 24 o al artículo 28, apartado 1, de la Ley de IA], o a un usuario, que exhiba las pruebas pertinentes que obran en su poder sobre un determinado sistema de IA de alto riesgo del que se sospeche que ha causado daños, pero cuya solicitud haya sido denegada, o a petición de un demandante, para ordenar la exhibición de dichas pruebas a estas personas.

En apoyo de esta solicitud, el demandante potencial deberá presentar hechos y pruebas suficientes para sustentar la viabilidad de una demanda de indemnización por daños y perjuicios.

2. En el contexto de una demanda por daños y perjuicios, el órgano jurisdiccional nacional solo ordenará la exhibición de las pruebas por parte de una de las personas enumeradas en el apartado 1 cuando el demandante haya realizado todos los intentos proporcionados de obtener del demandado las pruebas pertinentes.

3. Los Estados miembros velarán por que los órganos jurisdiccionales nacionales, a solicitud de un demandante, estén facultados para ordenar medidas específicas con el fin de conservar las pruebas mencionadas en el apartado 1.

4. Los órganos jurisdiccionales nacionales limitarán la exhibición de las pruebas y las medidas para su conservación a lo necesario y proporcionado para sustentar una demanda potencial o una demanda por daños y perjuicios.

A la hora de determinar si una orden de exhibición o conservación de pruebas es proporcionada, los órganos jurisdiccionales nacionales tendrán en cuenta los intereses legítimos de todas las partes, incluidos los terceros afectados, en particular los relativos a la protección de secretos comerciales en el sentido del artículo 2, apartado 1, de la Directiva (UE) 2016/943 y de la información confidencial como, por ejemplo, la relacionada con la seguridad pública o nacional.

Los Estados miembros velarán por que, cuando se ordene la revelación de un secreto comercial o de un supuesto secreto comercial que el órgano jurisdiccional haya declarado confidencial en el sentido del artículo 9, apartado 1, de la Directiva (UE) 2016/943, los órganos jurisdiccionales nacionales estén facultados, previa solicitud debidamente motivada de una parte o por iniciativa propia, para adoptar las medidas específicas necesarias a fin de preservar la confidencialidad cuando dicha prueba se utilice o se mencione en procedimientos judiciales.

Los Estados miembros velarán también por que la persona que reciba la orden de exhibir o conservar las pruebas mencionadas en los apartados 1 o 2 disponga de remedios procesales adecuados en respuesta a dichas órdenes.

5. Cuando un demandado incumpla la orden de un órgano jurisdiccional nacional en una demanda por daños y perjuicios de exhibir o conservar las pruebas que obran en su poder con arreglo a los apartados 1 o 2, el órgano jurisdiccional nacional presumirá el incumplimiento por parte del demandado de un deber de diligencia pertinente, en particular en las circunstancias a que se refiere el artículo 4, apartados 2 o 3, que las pruebas solicitadas estaban destinadas a probar a efectos de la correspondiente demanda por daños y perjuicios.

Al demandado le asistirá el derecho de refutar esa presunción.

Artículo 4. Presunción refutable de relación de causalidad en caso de culpa

1. Sin perjuicio de los requisitos establecidos en el presente artículo, los órganos jurisdiccionales nacionales presumirán, a efectos de la aplicación de las normas de responsabilidad a demandas por daños y perjuicios, el nexo causal entre la culpa del demandado y los resultados producidos por el sistema de IA o la no producción de resultados por parte del sistema de IA, siempre y cuando se cumplan todas las condiciones siguientes:

a) que el demandante haya demostrado o el órgano jurisdiccional haya supuesto, de conformidad con el artículo 3, apartado 5, la culpa del demandado o de una persona de cuyo comportamiento sea responsable el demandado, consistente en el incumplimiento de un deber de diligencia establecido por el Derecho de la Unión o nacional destinado directamente a proteger frente a los daños que se hayan producido;

b) que pueda considerarse razonablemente probable, basándose en las circunstancias del caso, que la culpa ha influido en los resultados producidos por el sistema de IA o en la no producción de resultados por parte del sistema de IA;

c) que el demandante haya demostrado que la información de salida producida por el sistema de IA o la no producción de una información de salida por parte del sistema de IA causó los daños.

2. En caso de demandas por daños y perjuicios contra proveedores de sistemas de IA de alto riesgo sujetos a los requisitos establecidos en los capítulos 2 y 3 del título III de la [Ley de IA] o contra personas sujetas a las obligaciones del proveedor con arreglo al [artículo 24 o al artículo 28, apartado 1, de la Ley de IA], la condición del apartado 1, letra a), solo se cumplirá cuando el demandante haya demostrado que el proveedor o, en su caso, la persona sujeta a las obligaciones del proveedor, ha incumplido cualquiera de los siguientes requisitos establecidos en dichos capítulos, teniendo en cuenta las medidas adoptadas y los resultados del sistema de gestión de riesgos con arreglo al [artículo 9 y el artículo 16, letra a), de la Ley de IA]:

a) el sistema de IA es un sistema que utiliza técnicas que implican el entrenamiento de modelos con datos y que no se ha desarrollado a partir de conjuntos de datos de entrenamiento, validación y prueba que cumplen los criterios de calidad expuestos en el [artículo 10, apartados 2 a 4, de la Ley de IA];

b) el sistema de IA no ha sido diseñado ni desarrollado de modo que cumpla los requisitos de transparencia establecidos en [el artículo 13 de la Ley de IA];

c) el sistema de IA no ha sido diseñado ni desarrollado de modo que permita una vigilancia efectiva por personas físicas durante el período de utilización del sistema de IA de conformidad con el [artículo 14 de la Ley de IA];

d) el sistema de IA no ha sido diseñado ni desarrollado de modo que, a la luz de su finalidad prevista, alcance un nivel adecuado de precisión, solidez y ciberseguridad de conformidad con [el artículo 15 y el artículo 16, letra a), de la Ley de IA]; o

e) no se han adoptado de forma inmediata las medidas correctoras necesarias para poner el sistema de IA en conformidad con las obligaciones establecidas en el [título III, capítulo 2, de la Ley de IA] o para retirar del mercado o recuperar el sistema, según proceda, de conformidad con el [artículo 16, letra g), y artículo 21 de la Ley de IA].

3. En caso de demandas por daños y perjuicios contra usuarios de sistemas de IA de alto riesgo sujetos a los requisitos establecidos en los capítulos 2 y 3 del título III de la [Ley de IA], la condición del apartado 1, letra a), se cumplirá cuando el demandante demuestre que el usuario:

a) no cumplió con sus obligaciones de utilizar o supervisar el sistema de IA de conformidad con las instrucciones de uso adjuntas o, en su caso, de suspender o interrumpir su uso con arreglo al [artículo 29 de la Ley de IA]; o

b) expuso al sistema de IA a datos de entrada bajo su control que no eran pertinentes habida cuenta de la finalidad prevista del sistema con arreglo al [artículo 29, apartado 3, de la Ley].

4. En el caso de las demandas por daños y perjuicios relacionadas con sistemas de IA de alto riesgo, los órganos jurisdiccionales nacionales no aplicarán la presunción establecida en el apartado 1 cuando el demandado demuestre que el demandante puede acceder razonablemente a pruebas y conocimientos especializados suficientes para demostrar el nexo causal mencionado en el apartado 1.

5. En el caso de las demandas por daños y perjuicios relacionadas con sistemas de IA que no sean de alto riesgo, la presunción establecida en el apartado 1 solo se aplicará cuando el órgano jurisdiccional nacional considere excesivamente difícil para el demandante demostrar el nexo causal mencionado en el apartado 1.

6. En el caso de las demandas por daños y perjuicios contra un demandado que haya utilizado el sistema de IA en el transcurso de una actividad personal de carácter no profesional, la presunción establecida en el apartado 1 solo se aplicará cuando el demandado haya interferido sustancialmente en las condiciones de funcionamiento del sistema de IA o cuando el demandado tuviese la obligación y estuviese en condiciones de determinar las condiciones de funcionamiento del sistema de IA y no lo haya hecho.

7. Al demandado le asistirá el derecho de refutar la presunción establecida en el apartado 1.

Artículo 5. Evaluación y revisión específica

1. A más tardar el [FECHA cinco años después del final del período de transposición], la Comisión revisará la aplicación de la presente Directiva y presentará un informe al Parlamento Europeo, al Consejo y al Comité Económico y Social Europeo, acompañado, en su caso, de una propuesta legislativa.

2. El informe examinará los efectos de los artículos 3 y 4 en la consecución de los objetivos perseguidos por la presente Directiva. En particular, deberá evaluar la idoneidad de las normas de responsabilidad objetiva (sin culpa) para las demandas contra los operadores de determinados sistemas de IA —siempre que estas no estén ya reguladas por otras normas de responsabilidad de la Unión— y la necesidad de aseguramiento, teniendo en cuenta al mismo tiempo el efecto y el impacto en la introducción general y la adopción de los sistemas de IA, especialmente para las pymes.

3. La Comisión establecerá un programa de seguimiento para la preparación del informe con arreglo a los apartados 1 y 2, en el que se establecerá cómo y con qué periodicidad se recopilarán los datos y demás elementos de prueba necesarios. El programa especificará las medidas que deban adoptar la Comisión y los Estados miembros para recopilar y analizar los datos y demás elementos de prueba. A efectos de dicho programa, los Estados miembros comunicarán a la Comisión los datos y elementos de prueba pertinentes, a más tardar el [31 de diciembre del segundo año completo siguiente al final del período de transposición] y al final de cada año posterior.

Artículo 6. Modificación de la Directiva (UE) 2020/1828

En el anexo I de la Directiva (UE) 2020/1828 (40), se añade el punto 67 siguiente:

«(67) Directiva (UE) …/… del Parlamento Europeo y del Consejo, de …, relativa a la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial (Directiva sobre responsabilidad en materia de IA) (DO L… de…, p. …).».

Artículo 7. Transposición

1. Los Estados miembros adoptarán las disposiciones legales, reglamentarias y administrativas necesarias para dar cumplimiento a la presente Directiva a más tardar el [dos años después de su entrada en vigor]. Comunicarán inmediatamente a la Comisión el texto de dichas disposiciones.

Cuando los Estados miembros adopten dichas disposiciones, estas incluirán una referencia a la presente Directiva o irán acompañadas de dicha referencia en su publicación oficial. Los Estados miembros establecerán las modalidades de la mencionada referencia.

2. Los Estados miembros comunicarán a la Comisión el texto de las principales disposiciones de Derecho interno que adopten en el ámbito regulado por la presente Directiva.

Artículo 8. Entrada en vigor

La presente Directiva entrará en vigor a los veinte días de su publicación en el Diario Oficial de la Unión Europea.

Artículo 9. Destinatarios

Los destinatarios de la presente Directiva son los Estados miembros.

Hecho en Bruselas, el

Por el Parlamento Europeo, La Presidenta    Por el Consejo, El Presidente

——————————————-

(1)   European enterprise survey on the use of technologies based on AI (Encuesta empresarial europea sobre el uso de tecnologías basadas en la IA), Ipsos 2020, Final report, p. 58.

( https://op.europa.eu/en/publication-detail/-/publication/f089bbae-f0b0-11ea-991b-01aa75ed71a1 )

(2)    https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next-commission_en.pdf

(3)   Libro Blanco sobre la inteligencia artificial — un enfoque europeo orientado a la excelencia y la confianza, 19.2.2020, [COM(2020) 65 final].

(4)   Informe de la Comisión al Parlamento Europeo, al Consejo y al Comité Económico y Social Europeo sobre las repercusiones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica, 19.2.2020 [COM(2020) 64 final].

(5)   Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial [2020/2014(INL)].

(6)   Resolución del Parlamento Europeo, de 3 de mayo de 2022, sobre la inteligencia artificial en la era digital [2020/2266 (INI)].

(7)   Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) [COM(2021) 206 final].

(8)   Solo un reducido número de casos de uso de la IA están expresamente prohibidos por la Ley de IA.

(9)   Documento de trabajo de los servicios de la Comisión SWD(2021) 84 final, Evaluación de impacto que acompaña a la Ley de Inteligencia Artificial, p. 88.

(10)   Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a la seguridad general de los productos [COM(2021) 346 final].

(11)   Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a las máquinas y sus partes y accesorios [COM(2021) 202 final].

(12)   Reglamento Delegado (UE) 2022/30 de la Comisión que completa la Directiva 2014/53/UE del Parlamento Europeo y del Consejo en lo que respecta a la aplicación de los requisitos esenciales contemplados en el artículo 3, apartado 3, letras d), e) y f), de dicha Directiva (DO L 7 de 12.1.2022, p. 6).

(13)   Comunicación de la Comisión «Configurar el futuro digital de Europa» [COM(2020) 67 final].

(14)   [Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para productos con elementos digitales) — COM(2022) 454 final]

(15)   Comunicación de la Comisión «Una Estrategia Europea de Datos» [COM(2020) 66 final].

(16)   Comunicación de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones: El Pacto Verde Europeo [COM(2019) 640 final].

(17)   Deloitte, Study to support the Commission’s IA on liability for artificial intelligence, 2021 («Estudio económico»).

(18)   Estrategia Nacional de Inteligencia Artificial de la República Checa, 2019: https://www.mpo.cz/assets/en/guidepost/for-the-media/press-releases/2019/5/NAIS_eng_web.pdf ; AI Watch, «National strategies on Artificial Intelligence — A European perspective» (Estrategias nacionales para la inteligencia artificial: una perspectiva europea), edición de 2021, informe del JRC y la OCDE: https://op.europa.eu/es/publication-detail/-/publication/619fd0b5-d3ca-11eb-895a-01aa75ed71a1 , p. 41.

(19)   2025 Strategia per l’innovazione técnica e la digitalizzazione del Paese: https://assets.innovazione.gov.it/1610546390-midbook2025.pdf ;

(20)   Deloitte, Study to support the Commission’s IA on liability for artificial intelligence, 2021, p. 96.

(21)   Véase Polityka Rozwoju Sztucznej. Inteligencji w Polsce na lata 2019 – 2027 (Política para el desarrollo de la inteligencia artificial en Polonia, 2019-2027) ( www.gov.pl/attachment/0aa51cd5-b934-4bcb-8660-bfecb20ea2a9 ), 102.

(22)   AI Portugal 2030: https://www.incode2030.gov.pt/sites/default/files/julho_incode_brochura.pdf ; AI Watch, op. cit., p. 113.

(23)   Principalmente, responsabilidad objetiva, inversión de la carga de la prueba o atenuación de la carga de la prueba en forma de presunciones irrefutables o refutables (absolutas o relativas).

(24)   Este resumen puede encontrarse en < https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_es >

(25)   Liability for artificial intelligence and other emerging digital technologies (Responsabilidad en materia de inteligencia artificial y otras tecnologías digitales emergentes), noviembre de 2019, https://op.europa.eu/en/publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1/language-en 

(26)   Karner/Koch/Geistfeld, Comparative Law Study on Civil Liability for Artificial Intelligence (Estudio de Derecho comparado sobre responsabilidad civil por inteligencia artificial), 2021, https://op.europa.eu/en/publication-detail/-/publication/8a32ccc3-0f83-11ec-9151-01aa75ed71a1/language-en .

(27)   Kantar, Behavioural Study on the link between challenges of Artificial Intelligence for Member States’ civil liability rules and consumer attitudes towards AI-enabled products and services («Estudio de conducta sobre el vínculo entre los retos de la inteligencia artificial para las normas de los Estados miembros en materia de responsabilidad civil y las actitudes de los consumidores respecto a los productos y servicios en los que se emplea IA», documento en inglés), informe final de 2021.

(28)   Deloitte, Study to support the Commission’s Impact Assessment on liability for artificial intelligence, 2021.

(29)   DO C de , p. .

(30)   DO C de , p. .

(31)   [Propuesta de Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) – COM(2021) 206 final].

(32)   [Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a la seguridad general de los productos (COM[2021] 346 final)].

(33)   [Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a las máquinas y sus partes y accesorios (COM[2021] 202 final)].

(34)   Reglamento Delegado (UE) 2022/30 de la Comisión que completa la Directiva 2014/53/UE del Parlamento Europeo y del Consejo en lo que respecta a la aplicación de los requisitos esenciales contemplados en el artículo 3, apartado 3, letras d), e) y f), de dicha Directiva (DO L 7 de 12.1.2022, p. 6).

(35)   Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos (DO L 210 de 7.8.1985, p. 29).

(36)   [Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a un mercado único de servicios digitales (Ley de servicios digitales) — COM(2020) 825 final]

(37)   Directiva (UE) 2016/943 del Parlamento Europeo y del Consejo, de 8 de junio de 2016, relativa a la protección de los conocimientos técnicos y la información empresarial no divulgados (secretos comerciales) contra su obtención, utilización y revelación ilícitas (DO L 157 de 15.6.2016, p. 1).

(38)   Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial [2020/2014(INL)] (DO C 404 de 6.10.2021, p. 107).

(39)   DO C 369 de 17.12.2011, p. 14.

(40)   Directiva (UE) 2020/1828 del Parlamento Europeo y del Consejo, de 25 de noviembre de 2020, relativa a las acciones de representación para la protección de los intereses colectivos de los consumidores, y por la que se deroga la Directiva 2009/22/CE (DO L 409 de 4.12.2020, p. 1).

21Ene/24

Resolución del Parlamento Europeo, de 3 de mayo de 2022

Resolución del Parlamento Europeo, de 3 de mayo de 2022, sobre la inteligencia artificial en la era digital (2020/2266(INI))

El Parlamento Europeo,

–  Vistos los artículos 4, 16, 26, 114, 169, 173, 179, 180, 181 y 187 del Tratado de Funcionamiento de la Unión Europea,

–  Vista la Carta de los Derechos Fundamentales de la Unión Europea,

–  Vistas la Convención de las Naciones Unidas sobre los Derechos del Niño y la observación general n.º 25 del Comité de los Derechos del Niño, de 2 de marzo de 2021, relativa a los derechos de los niños en relación con el entorno digital,

–  Vista la recomendación de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) sobre la ética de la inteligencia artificial, aprobada por la Conferencia General de la UNESCO en su 41.º período de sesiones el 24 de noviembre de 2021,

–  Vistos el Acuerdo interinstitucional, de 13 de abril de 2016, sobre la mejora de la legislación (1) y las directrices de la Comisión para la mejora de la legislación,

–  Vista la Comunicación de la Comisión, de 24 de marzo de 2021, titulada «Estrategia de la UE sobre los Derechos del Niño» (COM(2021)0142),

–  Vista su Resolución, de 7 de octubre de 2021, sobre la situación de las capacidades de ciberdefensa de la UE(2),

–  Vista su Resolución, de 15 de diciembre de 2021, sobre los desafíos y perspectivas para los regímenes multilaterales de control de armas de destrucción masiva y desarme (3),

–  Visto el Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos, y por la que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos) (4),

–  Visto el Reglamento (UE) 2021/694 del Parlamento Europeo y del Consejo, de 29 de abril de 2021, por el que se establece el Programa Europa Digital y por el que se deroga la Decisión (UE) 2015/2240 (5),

–  Visto el Reglamento (UE) 2021/695 del Parlamento Europeo y del Consejo, de 28 de abril de 2021, por el que se crea el Programa Marco de Investigación e Innovación «Horizonte Europa» y se establecen sus normas de participación y difusión, y se derogan los Reglamentos (UE) n.º 1290/2013 y (UE) n.º 1291/2013 (6),

–  Vista la propuesta de Reglamento del Parlamento Europeo y del Consejo, de 21 de abril de 2021, por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión (COM(2021)0206),

–  Vista la propuesta de Reglamento del Parlamento Europeo y del Consejo, de 25 de noviembre de 2020, relativo a la gobernanza europea de datos (Ley de Gobernanza de Datos) (COM(2020)0767),

–  Visto el Reglamento (UE) 2018/1807 del Parlamento Europeo y del Consejo, de 14 de noviembre de 2018, relativo a un marco para la libre circulación de datos no personales en la Unión Europea (7),

–  Visto el Reglamento (UE) 2021/697 del Parlamento Europeo y del Consejo, de 29 de abril de 2021, por el que se establece el Fondo Europeo de Defensa y por el que se deroga el Reglamento (UE) 2018/1092 (8),

–  Vista la Directiva (UE) 2019/770 del Parlamento Europeo y del Consejo, de 20 de mayo de 2019, relativa a determinados aspectos de los contratos de suministro de contenidos y servicios digitales (9),

–  Visto el Reglamento (UE) 2021/1173 del Consejo, de 13 de julio de 2021, por el que se crea la Empresa Común de Informática de Alto Rendimiento Europea y por el que se deroga el Reglamento (UE) 2018/1488 (10),

–  Vista la Comunicación de la Comisión, de 25 de abril de 2018, titulada «Inteligencia artificial para Europa» (COM(2018)0237),

–  Vista la Comunicación de la Comisión, de 7 de diciembre de 2018, titulada «Plan coordinado sobre la inteligencia artificial» (COM(2018)0795),

–  Vista la Comunicación de la Comisión, de 8 de abril de 2019, titulada «Generar confianza en la inteligencia artificial centrada en el ser humano» (COM(2019)0168),

–  Visto el Libro Blanco de la Comisión, de 19 de febrero de 2020, titulado «Inteligencia artificial – Un enfoque europeo orientado a la excelencia y la confianza» (COM(2020)0065),

–  Vista la Comunicación de la Comisión, de 19 de febrero de 2020, titulada «Una Estrategia Europea de Datos» (COM(2020)0066),

–  Vista la Comunicación de la Comisión, de 19 de febrero de 2020, titulada «Configurar el futuro digital de Europa» (COM(2020)0067),

–  Vistas la Comunicación de la Comisión, de 10 de marzo de 2020, titulada «Un nuevo modelo de industria para Europa» (COM(2020)0102) y la Comunicación, de 5 de mayo de 2021, titulada «Actualización del nuevo modelo de industria de 2020: Creación de un mercado único más sólido para la recuperación de Europa» (COM(2021)0350),

–  Vista la Comunicación de la Comisión, de 30 de septiembre de 2020, titulada «Plan de Acción de Educación Digital 2021-2027 – Adaptar la educación y la formación a la era digital» (COM(2020)0624),

–  Visto el Libro Verde de la Comisión sobre el Envejecimiento – Fomentar la solidaridad y la responsabilidad entre generaciones, de 27 de enero de 2021 (COM(2021)0050),

–  Vista la Comunicación de la Comisión, de 9 de marzo de 2021, titulada «Brújula Digital 2030: el enfoque de Europa para el Decenio Digital» (COM(2021)0118),

–  Vista la propuesta de Decisión del Parlamento Europeo y del Consejo, de 15 de septiembre de 2021, por la que se establece el programa de política «Itinerario hacia la Década Digital» para 2030 (COM(2021)0574),

–  Visto el estudio de la Comisión, de 28 de julio de 2020, titulado «European enterprise survey on the use of technologies based on artificial intelligence» (Encuesta a empresas europeas sobre el uso de tecnologías basadas en la inteligencia artificial),

–  Visto el estudio de la Comisión, de 26 de noviembre de 2020, titulado «Energy-efficient cloud computing technologies and policies for an eco-friendly cloud market» (Tecnologías y políticas en materia de computación en la nube eficientes desde el punto de vista energético para un mercado de la nube respetuoso con el medio ambiente),

–  Visto el informe de la Comisión al Parlamento Europeo, al Consejo y al Comité Económico y Social Europeo, de 19 de febrero de 2020, sobre las implicaciones en materia de seguridad y responsabilidad de la inteligencia artificial, el Internet de las cosas y la robótica (COM(2020)0064),

–  Vistas las Conclusiones del Consejo, de 22 de marzo de 2021, sobre la Estrategia de Ciberseguridad de la UE para la Década Digital,

–  Visto el informe del Grupo de expertos de alto nivel sobre inteligencia artificial, de 8 de abril de 2019, titulado «Directrices éticas para una IA fiable»,

–  Visto el informe del Grupo de expertos de alto nivel sobre inteligencia artificial, de 8 de abril de 2019, titulado «Una definición de la inteligencia artificial: principales capacidades y disciplinas»,

–  Visto el informe del Grupo de expertos de alto nivel sobre inteligencia artificial, de 26 de junio de 2019, titulado «Recomendaciones estratégicas y de inversión para una inteligencia artificial fiable»,

–  Vista la publicación de la UNESCO, de marzo de 2019, titulada «I’d blush if I could: Closing gender divides in digital skills through education» (Me sonrojaría si pudiera: eliminar las brechas de género en las capacidades digitales a través de la educación),

–  Visto el informe de la Agencia de los Derechos Fundamentales de la Unión Europea, de 14 de diciembre de 2020, titulado «Getting the future right — Artificial intelligence and fundamental rights» (Acertar con el futuro: inteligencia artificial y derechos fundamentales),

–  Vista la Recomendación del Consejo de la Organización de Cooperación y Desarrollo Económicos (OCDE), de 22 de mayo de 2019, sobre la inteligencia artificial,

–  Vista la plataforma de las Naciones Unidas para el diálogo sobre la inteligencia artificial: Cumbre Mundial «AI for Good» (IA para el bien),

–  Vistos los Principios para la IA del G-20 de 9 de junio de 2019,

–  Visto el informe de la Organización Mundial de la Salud, de 28 de junio de 2021, sobre la inteligencia artificial aplicada a la salud y seis principios rectores relativos a su concepción y utilización,

–  Visto el dictamen de iniciativa del Comité Económico y Social Europeo, de 31 de mayo de 2017, titulado «Inteligencia artificial: las consecuencias de la inteligencia artificial para el mercado único (digital), la producción, el consumo, el empleo y la sociedad» (11),

–  Visto el informe del Grupo de expertos sobre responsabilidad y nuevas tecnologías – Formación sobre nuevas tecnologías, de 21 de noviembre de 2019, titulado «Liability for artificial intelligence and other emerging digital technologies» (Responsabilidad en materia de inteligencia artificial y otras tecnologías digitales emergentes),

–  Vista la publicación del Comité ad hoc sobre inteligencia artificial (CAHAI) del Consejo de Europa, de diciembre de 2020, titulada «Towards Regulation of AI systems – Global perspectives on the development of a legal framework on Artificial Intelligence systems based on the Council of Europe’s standards on human rights, democracy and the rule of law» (Hacia la regulación de los sistemas de IA – Perspectivas globales sobre el desarrollo de un marco legal sobre los sistemas de inteligencia artificial basado en las normas del Consejo de Europa sobre derechos humanos, democracia y el Estado de Derecho),

–  Visto el documento de trabajo del Instituto Universitario Europeo, de octubre de 2020, titulado «Models of Law and Regulation for AI» (Modelos de legislación y regulación de la inteligencia artificial),

–  Visto el informe conjunto de Trend Micro Research, el Instituto Interregional de las Naciones Unidas para Investigaciones sobre la Delincuencia y la Justicia y Europol, de 19 de noviembre de 2020, titulado «Malicious Uses and Abuses of Artificial Intelligence» (Usos malintencionados e indebidos de la inteligencia artificial),

–  Vistas las orientaciones políticas de la Comisión para 2019-2024, tituladas «Una Unión que se esfuerza por lograr más resultados: Mi agenda para Europa»,

–  Vista la sentencia del Tribunal de Justicia de la Unión Europea, de 16 de julio de 2020, en el asunto C-311/18 (Schrems II),

–  Vista su Resolución, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (12),

–  Vista su Resolución, de 1 de junio de 2017, sobre la digitalización de la industria europea (13),

–  Vista su Resolución, de 6 de octubre de 2021, sobre el Marco de la política de la Unión Europea en materia de seguridad vial para 2021-2030 – Recomendaciones sobre los próximos pasos hacia la «Visión Cero» (14),

–  Vista su Resolución, de 12 de septiembre de 2018, sobre los sistemas armamentísticos autónomos (15),

–  Vista su Resolución, de 12 de febrero de 2019, sobre una política industrial global europea en materia de inteligencia artificial y robótica (16),

–  Vista su Resolución, de 12 de febrero de 2020, sobre los procesos automatizados de toma de decisiones: garantizar la protección de los consumidores y la libre circulación de bienes y servicios (17),

–  Vista su Resolución, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial (18),

–  Vista su Resolución, de 20 de octubre de 2020, sobre los derechos de propiedad intelectual para el desarrollo de las tecnologías relativas a la inteligencia artificial (19),

–  Vista su Resolución, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas (20),

–  Vista su Resolución, de 20 de enero de 2021, sobre inteligencia artificial: cuestiones de interpretación y de aplicación del Derecho internacional en la medida en que la UE se ve afectada en los ámbitos de los usos civil y militar y de la autoridad del Estado fuera del ámbito de la justicia penal (21),

–  Vista su Resolución, de 20 de mayo de 2021, sobre la configuración del futuro digital de Europa: eliminación de los obstáculos al funcionamiento del mercado único digital y mejora del uso de la inteligencia artificial para los consumidores europeos (22),

–  Vista su Resolución, de 25 de marzo de 2021, sobre una Estrategia Europea de Datos (23),

–  Vista su Resolución, de 19 de mayo de 2021, sobre la inteligencia artificial en los sectores educativo, cultural y audiovisual (24),

–  Vista su Resolución, de 6 de octubre de 2021, sobre la inteligencia artificial en el Derecho penal y su utilización por las autoridades policiales y judiciales en asuntos penales (25);

–  Visto el estudio de la Dirección General de Políticas Interiores de la Unión (DG IPOL), de junio de 2021, titulado «Artificial Intelligence diplomacy – Artificial Intelligence governance as a new European Union external policy tool» (Diplomacia de la inteligencia artificial: la gobernanza de la inteligencia artificial como nueva herramienta de política exterior de la Unión Europea),

–  Visto el estudio de la DG IPOL, de mayo de 2021, titulado «Challenges and limits of an open source approach to Artificial Intelligence» (Desafíos y límites de un enfoque de código abierto para la inteligencia artificial),

–  Visto el estudio de la DG IPOL, de mayo de 2021, titulado «Artificial Intelligence market and capital flows – AI and the financial sector at crossroads» (Mercado de la inteligencia artificial y flujos de capital: la IA y el sector financiero en la encrucijada),

–  Visto el estudio de la DG IPOL, de junio de 2021, titulado «Improving working conditions using Artificial Intelligence» (Mejorar las condiciones de trabajo mediante la inteligencia artificial),

–  Visto el estudio de la DG IPOL, de mayo de 2021, titulado «The role of Artificial Intelligence in the European Green Deal» (El papel de la inteligencia artificial en el Pacto Verde Europeo),

–  Visto el estudio de la DG IPOL, de julio de 2021, titulado «Artificial Intelligence in smart cities and urban mobility» (La inteligencia artificial en las ciudades inteligentes y la movilidad urbana),

–  Visto el estudio de la DG IPOL, de julio de 2021, titulado «Artificial Intelligence and public services» (La inteligencia artificial y los servicios públicos),

–  Visto el estudio de la DG IPOL, de julio de 2021, titulado «European Union data challenge» (Los desafíos en materia de datos en la Unión Europea),

–  Visto el estudio de la DG IPOL, de junio de 2020, titulado «Opportunities of Artificial Intelligence» (Oportunidades de la inteligencia artificial),

–  Visto el estudio de la DG IPOL, de octubre de 2021, titulado «Europe’s Digital Decade and Autonomy» (La autonomía y la década digital de Europa),

–  Visto el estudio de la DG IPOL, de enero de 2022, titulado «Identification and assessment of existing and draft EU legislation in the digital field» (Identificación y evaluación de la legislación vigente y de las propuestas legislativas de la UE en el ámbito digital),

–  Visto el estudio de los Servicios de Estudios Parlamentarios (EPRS), de septiembre de 2020, titulado «Civil liability regime for artificial intelligence – European added value assessment» (El régimen de responsabilidad civil para la inteligencia artificial: evaluación del valor añadido europeo),

–  Visto el estudio de la Unidad de Prospectiva Científica de EPRS, de diciembre de 2020, titulado «Data subjects, digital surveillance, AI and the future of work» (Los titulares de los datos, la vigilancia digital, la inteligencia artificial y el futuro del trabajo),

–  Visto el estudio de EPRS, de septiembre de 2020, titulado «European framework on ethical aspects of artificial intelligence, robotics and related technologies» (Marco europeo sobre los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas),

–  Visto el estudio de EPRS, de marzo de 2020, titulado «The ethics of artificial intelligence: Issues and initiatives» (La ética de la inteligencia artificial: cuestiones e iniciativas),

–  Visto el estudio de EPRS, de junio de 2020, titulado «Artificial Intelligence: How does it work, why does it matter, and what can we do about it?» (Inteligencia artificial: ¿cómo funciona, por qué es importante y qué podemos hacer al respecto?),

–  Visto el estudio de EPRS, de julio de 2020, titulado «Artificial Intelligence and Law enforcement – Impact on Fundamental Rights» (Inteligencia artificial y aplicación de la ley: impacto sobre los derechos fundamentales),

–  Visto el estudio de EPRS, de junio de 2020, titulado «The impact of the General Data Protection Regulation (GDPR) on artificial intelligence» (El impacto del Reglamento general de protección de datos (RGPD) en la inteligencia artificial),

–  Visto el estudio de EPRS, de abril 2020, titulado «The White Paper on Artificial Intelligence» (Libro Blanco sobre la inteligencia artificial),

–  Visto el estudio de EPRS, de septiembre de 2021, titulado «Regulating facial recognition in the EU» (Regulación del reconocimiento facial en la UE),

–  Visto el estudio de EPRS, de febrero de 2021, titulado «The future of work: Trends, challenges and potential initiatives» (El futuro del trabajo: tendencias, desafíos e iniciativas potenciales),

–  Visto el estudio de EPRS, de junio de 2021, titulado «Robo-advisors: How do they fit in the existing EU regulatory framework, in particular with regard to investor protection?» (Robo-asesores: ¿Cómo encajan en el marco normativo vigente de la UE, en particular en lo que se refiere a la protección de los inversores?),

–  Visto el estudio de EPRS, de septiembre de 2021, titulado «China’s ambitions in artificial intelligence» (Las ambiciones de China en materia de inteligencia artificial),

–  Visto el estudio de EPRS, de junio de 2021, titulado «What if we chose new metaphors for artificial intelligence?» (¿Y si eligiéramos nuevas metáforas para la inteligencia artificial?),

–  Visto el estudio de EPRS, de enero de 2018, titulado «Understanding artificial intelligence» (Comprender la inteligencia artificial),

–  Visto el estudio de EPRS, de julio de 2021, titulado «Tackling deepfakes in European Policy» (Lucha contra las ultrafalsificaciones en la política europea),

–  Visto el documento de trabajo de la Comisión Especial sobre Inteligencia Artificial en la Era Digital (AIDA), de febrero de 2021, titulado «Artificial Intelligence and Health» (Inteligencia artificial y salud),

–  Visto el documento de trabajo de la Comisión Especial AIDA, de marzo de 2021, titulado «Artificial Intelligence and the Green Deal» (La inteligencia artificial y el Pacto Verde),

–  Visto el documento de trabajo de la Comisión Especial AIDA, de marzo de 2021, titulado «The External Policy Dimensions of AI» (Las dimensiones de política exterior de la IA),

–  Visto el documento de trabajo de la Comisión Especial AIDA, de mayo de 2021, titulado «AI and Competitiveness» (La IA y la competitividad),

–  Visto el documento de trabajo de la Comisión Especial AIDA, de junio de 2021, titulado «AI and the Future of Democracy» (La IA y el futuro de la democracia»),

–  Visto el documento de trabajo de la Comisión Especial AIDA, de junio de 2021, titulado «AI and the Labour Market» (La IA y el mercado laboral),

–  Visto el artículo 54 de su Reglamento interno,

–  Visto el informe de la Comisión Especial sobre Inteligencia Artificial en la Era Digital (A9-0088/2022),

1.Introducción

1.  Observa que el mundo está al borde de la cuarta revolución industrial; señala que, en comparación con las tres oleadas anteriores, iniciadas por la introducción del vapor, la electricidad y luego los ordenadores, la cuarta oleada extrae su energía de la abundancia de datos combinada con potentes algoritmos y capacidad informática; destaca que la revolución digital actual se caracteriza por su escala mundial, su rápida convergencia y el enorme impacto de los nuevos avances tecnológicos en los países, las economías, las sociedades, las relaciones internacionales y el medio ambiente; reconoce que un cambio radical de esa magnitud repercute diversamente en las distintas partes de la sociedad, en función de sus objetivos, ubicación geográfica o contexto socioeconómico; hace hincapié en que se ha de configurar la transformación digital dentro del pleno respeto de los derechos fundamentales y de tal manera que las tecnologías digitales sirvan a la humanidad;

2.  Observa que, al mismo tiempo, la revolución digital ha activado una competencia mundial como resultado del valor económico y las capacidades tecnológicas enormes que han acumulado las economías que más recursos destinan a la investigación, el desarrollo y la comercialización de aplicaciones de inteligencia artificial (en lo sucesivo, «IA»); señala que la competitividad digital y la autonomía estratégica abierta se han convertido en un objetivo político central en varios países; destaca la creciente concienciación entre los responsables de la toma de decisiones de que las tecnologías emergentes podrían afectar al estatuto de potencia geopolítica de países enteros;

3.  Señala que Europa, que durante siglos fijó las normas internacionales, dominó el progreso tecnológico y lideró la fabricación y el despliegue de alta tecnología, se ha quedado rezagada y desarrolla e invierte en el mercado digital mucho menos que economías punteras como las de los Estados Unidos o de China, si bien sigue manteniéndose en un nivel relativamente competitivo en términos de producción investigadora temática en IA; reconoce el riesgo de que los agentes europeos se vean marginados en el desarrollo de normas mundiales y los avances tecnológicos, y de que los valores europeos se vean amenazados;

4.  Pone de relieve, en primer lugar, que las herramientas digitales se están convirtiendo cada vez más en un instrumento de manipulación y abuso en manos de algunos agentes empresariales y también de gobiernos autocráticos cuyo objetivo es socavar los sistemas políticos democráticos, lo que podría conducir a un choque entre sistemas políticos; explica que el espionaje digital, el sabotaje, la guerra a baja escala y las campañas de desinformación suponen un desafío para las sociedades democráticas;

5.  Destaca que la naturaleza de los modelos de negocio digitales permite un mayor grado de escalabilidad y efectos de red; señala que muchos de los mercados digitales se caracterizan por un nivel elevado de concentración del mercado, lo que propicia que un pequeño número de plataformas tecnológicas, que en su mayoría tienen actualmente su sede en los EE. UU., encabece la comercialización de innovaciones tecnológicas pioneras, atraigan las mejores ideas, talento y empresas, y consigan una rentabilidad fuera de lo común; advierte de que las posiciones dominantes en el mercado de la economía de los datos pueden extenderse a la economía de la IA emergente; señala que solo ocho de las 200 principales empresas digitales actuales tienen su domicilio en la Unión; destaca que a ese respecto la realización de un verdadero mercado único digital reviste la máxima importancia;

6.  Hace hincapié en que, a consecuencia de ello, la competencia mundial por el liderazgo tecnológico se ha convertido en una prioridad en la Unión; destaca que, si la Unión no actúa con rapidez y valentía, acabará teniendo que seguir las reglas y normas fijadas por otros y corre el riesgo de sufrir efectos perjudiciales para la estabilidad política, la seguridad social, los derechos fundamentales, las libertades individuales y la competitividad económica;

7.  Sostiene que la IA es una de las tecnologías emergentes clave en el marco de la cuarta revolución industrial; señala que la IA alimenta la economía digital ya que permite la introducción de productos y servicios innovadores, tiene la capacidad de incrementar las posibilidades de elección de los consumidores y puede conseguir que los procesos de producción sean más eficientes; afirma que se prevé que en 2030 a más tardar la IA contribuya con más de 11 billones de euros a la economía mundial; subraya, al mismo tiempo, que las tecnologías de IA corren el riesgo de reducir la intervención humana; pone de relieve que la IA debe ser una tecnología centrada en el ser humano y fiable, y no debe reemplazar la autonomía humana ni asumir la pérdida de libertad individual; destaca la necesidad de garantizar que esta cuarta revolución industrial sea integradora y no deje a nadie atrás;

8.  Propone una competición a escala mundial para el liderazgo en materia de IA; señala que las tecnologías de IA se comprometen a generar un inmenso valor económico para aquellas economías que las desarrollen, fabriquen y adopten provechosamente, así como para aquellos países en los que se produzca esa creación de valor; subraya que la IA no es una tecnología omnipotente, sino un conjunto eficiente de herramientas y técnicas que se puede poner al servicio de la sociedad; explica que el funcionamiento de las tecnologías depende de cómo las diseñemos; señala que la Unión ha declarado su intención de liderar un marco regulador en materia de IA; subraya, no obstante, que es fundamental que la Unión pueda definir el enfoque regulador, incluida la protección de los derechos y las libertades fundamentales, y actuar como un referente normativo a escala mundial; destaca, por tanto, la importancia de la competitividad europea en materia de IA y la capacidad de la Unión para configurar el panorama normativo a escala internacional; destaca asimismo que determinados usos de la IA pueden plantear riesgos individuales y sociales que pueden poner en peligro los derechos fundamentales, por lo que deben ser abordados por los responsables políticos, posibilitándose con ello que la IA se convierta efectivamente en un instrumento al servicio de las personas y la sociedad, en pos del bien común y del interés general;

9.  Señala que, para que los agentes europeos tengan éxito en la era digital y se conviertan en líderes tecnológicos en el ámbito de la IA, es necesario un marco normativo claro, un compromiso político y una mentalidad más prospectiva, a menudo inexistentes en la actualidad; concluye que, sobre la base de ese enfoque, tanto los ciudadanos como las empresas de la Unión pueden sacar provecho de la IA y de la gran oportunidad que ofrece para impulsar la competitividad, también en materia de prosperidad y bienestar; subraya que los marcos reglamentarios han de configurarse de manera que no impongan obstáculos injustificados para impedir que los agentes europeos tengan éxito en la era digital, en particular las empresas emergentes y las pequeñas y medianas empresas (pymes); destaca que se deben incrementar sustancialmente las inversiones públicas y privadas para crear un clima en el que surjan y se desarrollen en nuestro continente más historias de éxito europeas;

10.  Destaca que el rápido progreso tecnológico introducido por la IA está ligado de manera cada vez más inextricable a la mayoría de los ámbitos de la actividad humana y afectará también a los medios de subsistencia de aquellas personas que no posean las capacidades que necesitan para adaptarse con la suficiente rapidez a esas nuevas tecnologías; señala que, si bien lograr la alfabetización digital mediante el perfeccionamiento y el reciclaje profesionales puede ayudar a abordar muchas de las preocupaciones socioeconómicas resultantes, las consiguientes repercusiones también deben abordarse en el contexto de los sistemas de protección social, las infraestructuras urbanas y rurales y los procesos democráticos;

11.  Hace hincapié en la necesidad de reflejar los objetivos e intereses de las mujeres y los grupos vulnerables en la transición digital; destaca, en ese contexto, que en 2018 las mujeres solo representaron el 22 % de los profesionales mundiales de la IA, lo que constituye un problema que solo sirve para perpetuar y afianzar estereotipos y sesgos; reconoce la necesidad de preservar los derechos a la igualdad ante la ley, la privacidad, la libertad de expresión y la participación en la vida cultural y política al utilizar las tecnologías de IA, especialmente en el caso de las comunidades minoritarias;

2. Posibles oportunidades, riesgos y obstáculos en el uso de la IA: seis estudios de caso examinados por la Comisión Especial AIDA

12.  Recuerda que la IA se basa en programas informáticos que utilizan modelos probabilísticos y algoritmos predictivos para un conjunto de objetivos específicos; señala que el término IA es un término genérico que abarca una amplia gama de tecnologías, técnicas y enfoques antiguos y nuevos que se entiende mejor bajo la denominación de «sistemas de inteligencia artificial», que se refiere a cualesquiera sistemas automatizados que a menudo apenas tienen nada más en común que estar guiados por un conjunto dado de objetivos definidos por el ser humano, con distintos grados de autonomía en sus acciones, e intervenir en predicciones, recomendaciones o tomas de decisiones basadas en los datos disponibles; señala que, si bien algunas de esas tecnologías ya se utilizan de forma generalizada, otras aún están en fase de desarrollo o incluso son solo conceptos especulativos que pueden existir o no en el futuro;

13.  Señala que hay una diferencia significativa entre la IA simbólica, que constituye el principal enfoque de la IA entre los años cincuenta y los años noventa, y la IA basada en datos y aprendizaje automático, que domina desde el año 2000; aclara que durante la primera oleada, la IA se desarrolló codificando los conocimientos y la experiencia de los expertos en un conjunto de reglas que luego ejecutaba una máquina;

14.  Observa que en la segunda oleada, los procesos de aprendizaje automatizados de algoritmos basados en el procesamiento de grandes cantidades de datos, la capacidad de reunir datos procedentes de múltiples fuentes diferentes y de elaborar representaciones complejas de un entorno dado, y la determinación de patrones convirtieron a los sistemas de IA en sistemas más complejos, autónomos y opacos, lo que puede hacer que los resultados sean menos explicables; destaca que, en consecuencia, la IA actual puede clasificarse en muchos subcampos y técnicas diferentes, por lo que el aprendizaje profundo es, por ejemplo, un subcampo del aprendizaje automático, que a su vez es un subcampo de la IA;

15.  Observa que, aunque la IA actual se ha vuelto mucho más eficaz y potente que la IA simbólica, gracias a los grandes incrementos de las capacidades informáticas, por el momento solo puede resolver tareas claramente definidas en nichos específicos del dominio, como el ajedrez o el reconocimiento de imágenes, y su programación no está concebida para reconocer completamente las acciones que realiza el sistema de IA; destaca que, al contrario de lo que sugiere su nombre, los sistemas de IA carecen de «inteligencia» en el sentido humano del término; señala que por ello se habla de IA «débil» y todavía no es más que una herramienta que facilita recomendaciones y predicciones; observa, por ejemplo, que los vehículos autónomos funcionan mediante una combinación de diversos sistemas de IA monotarea que, en conjunto, son capaces de elaborar un mapa tridimensional del entorno del vehículo para que su sistema operativo pueda tomar decisiones;

16.  Subraya que muchos temores relacionados con la IA se basan en conceptos hipotéticos como la IA general, la superinteligencia artificial y la singularidad, que, en teoría, podrían hacer que la inteligencia de las máquinas superara a la inteligencia humana en numerosos ámbitos; destaca que existen dudas sobre la posibilidad de llegar a esa IA especulativa con nuestras tecnologías y leyes científicas; estima, no obstante, que los legisladores deben abordar los riesgos que plantea actualmente la toma de decisiones basada en la IA, ya que ha quedado claramente patente que efectos nocivos como la discriminación racial y sexual ya son atribuibles a casos concretos en los que la IA se ha implantado sin salvaguardias;

17.  Subraya que la mayoría de los sistemas de IA que se utilizan actualmente presentan un riesgo bajo; se refiere, por ejemplo, a la traducción automática, las «máquinas Eureka», las máquinas de juego y los robots que ejecutan procesos de fabricación repetitivos; llega a la conclusión de que algunos casos de uso se pueden calificar de arriesgados y requieren medidas reglamentarias y salvaguardias eficaces caso de no haberse establecido aún;

18.  Respalda un debate público sobre cómo explorar el enorme potencial de la IA sobre la base de los valores fundamentales europeos, los principios de transparencia, explicabilidad, equidad, rendición de cuentas, responsabilidad y fiabilidad, así como el principio de que la IA y la robótica deben centrarse en el ser humano y desarrollarse para complementar a los seres humanos; hace hincapié en que en un importante número de ámbitos de la vida humana, desde la sostenibilidad hasta la asistencia sanitaria, la IA puede aportar beneficios como una herramienta auxiliar para los usuarios y los profesionales, aumentando las capacidades de los seres humanos sin mermar su capacidad para actuar y decidir libremente; hace hincapié en que los principios y requisitos éticos acordados en materia de IA deben ponerse en práctica en todos los ámbitos de aplicación de la IA, sobre la base de las salvaguardias necesarias, lo que aumentará el nivel de confianza de los ciudadanos y les permitirá aprovechar los beneficios de la IA;

19.  Subraya que el nivel de riesgo de una determinada aplicación de IA varía considerablemente en función de la probabilidad de que se produzcan daños y de la gravedad de estos; hace hincapié, por tanto, en que los requisitos legales deben ajustarse a ello, en consonancia con un enfoque basado en el riesgo y teniendo debidamente en cuenta, cuando esté justificado, el principio de precaución; destaca que en las situaciones presentes o futuras en las que, para un uso en concreto, los sistemas de IA planteen riesgos elevados para los derechos fundamentales y humanos, se requiere una supervisión totalmente humana y una intervención reguladora, y que, habida cuenta de la velocidad del desarrollo tecnológico, la regulación de los sistemas de IA de alto riesgo debe ser flexible y estar orientada al futuro;

20.  Señala que en el presente informe se abordan en detalle seis estudios de casos de utilización de la IA exponiéndose las oportunidades que ofrece la IA en el sector respectivo, los riesgos que hay que abordar y los obstáculos que impiden a Europa aprovechar plenamente los beneficios de la IA; pone de relieve que los estudios de casos representan algunos de los más importantes casos de uso de la IA en la actualidad y, al mismo tiempo, reflejan varios de los principales temas tratados en las audiencias públicas celebradas por la Comisión Especial AIDA durante su mandato, a saber, la salud, el Pacto Verde, la política exterior y la seguridad, la competitividad, el futuro de la democracia y el mercado laboral;

a) La IA y la salud

21.  Estima que el análisis metodológico de grandes cantidades de datos, también a través de la IA, puede dar paso a nuevas soluciones o mejorar las técnicas existentes en el sector sanitario que podrían acelerar enormemente la investigación científica, salvar vidas humanas y mejorar la atención a los pacientes poniendo a disposición tratamientos innovadores y mejoras en materia de diagnóstico, así como fomentando entornos favorables a estilos de vida saludables; pone de relieve que los sistemas de IA también pueden contribuir a la accesibilidad, resiliencia y sostenibilidad de los sistemas sanitarios, al tiempo que aportan una ventaja competitiva a los sectores europeos de las TIC y de la asistencia sanitaria, si los riesgos inherentes de gestionan adecuadamente;

22.  Pone de relieve que el uso de la IA en el sector sanitario debe asentarse en requisitos éticos firmes, como el acceso equitativo a la asistencia sanitaria, la privacidad, la responsabilidad, la transparencia, la explicabilidad, la fiabilidad, la inclusión y la representatividad de los conjuntos de datos, así como la supervisión humana constante; hace hincapié en que en el diseño de sistemas basados en la IA se ha de abordar el riesgo de que los recursos se asignen indebidamente a personas sobre la base de una categorización defectuosa o sesgada, la priorización o el mal funcionamiento de la tecnología, desembocando en un diagnóstico erróneo, malos tratos o falta de tratamiento; opina que deben aplicarse las normas éticas más estrictas a todas las aplicaciones sanitarias, y que se deben establecer normas éticas en una fase muy temprana de su desarrollo y diseño, esto es, la ética por diseño; subraya que la toma de decisiones automatizada en las aplicaciones sanitarias puede plantear riesgos para el bienestar y los derechos fundamentales de los pacientes, y subraya que por ello la IA ha de desempeñar un papel de apoyo en la asistencia sanitaria, en la que siempre debe mantenerse la supervisión humana profesional; pide que, en los diagnósticos médicos dentro de los sistemas de salud pública, la IA preserve la relación entre el paciente y el médico y sea coherente en todo momento con el juramento hipocrático; observa, no obstante, que la IA mejora la precisión del cribado y en varios casos ya supera a los diagnósticos de los médicos; estima que los marcos de responsabilidad existentes no aportan la suficiente seguridad jurídica y no defienden el derecho de los pacientes a obtener reparación judicial en caso de diagnóstico erróneo y tratamiento incorrecto a través de la IA; acoge con satisfacción, en ese sentido, la futura propuesta legislativa sobre la responsabilidad en el ámbito de la IA; observa que es importante proteger tanto a los profesionales sanitarios en cuanto usuarios de sistemas de IA como a los pacientes en cuanto destinatarios finales, facilitándoles información suficiente y transparente;

23.  Subraya que ya se están utilizando o probando en contextos clínicos soluciones basadas en la IA a fin de apoyar el diagnóstico, el pronóstico, el tratamiento y la participación de los pacientes, acelerándose y mejorándose por ese medio el tratamiento y reduciéndose las intervenciones innecesarias; señala además que la IA puede mejorar la medicina personalizada y la atención a los pacientes; señala asimismo que la IA abarca actualmente un amplio abanico de ámbitos sanitarios, entre los que figuran la salud pública, los servicios asistenciales, el cuidado personal y los sistemas sanitarios; observa que los datos desempeñan un importante papel; opina que existen aplicaciones prometedoras de IA para la extracción de información a partir de imágenes y en otros dispositivos médicos para perfilar análisis a posteriori, y observa que también se prevé que los algoritmos de aprendizaje profundo propicien un salto cualitativo en diversas tareas clínicas;

24.  Pone de relieve que las tecnologías de IA pueden aplicarse a la investigación, el desarrollo y la producción masiva de productos farmacéuticos y tienen potencial para acelerar el desarrollo de nuevos medicamentos, tratamientos y vacunas a un coste inferior; estima que la IA puede ayudar a predecir el resultado de las respuestas a los tratamientos y permitir a los médicos ajustar las estrategias terapéuticas en función de las características genéticas o fisiológicas individuales, con niveles cada vez mayores de precisión cuando se parte de datos de alta calidad y de hipótesis sólidas, aumentándose por esa vía la eficacia de la atención preventiva, siempre que se cumplan todos los requisitos éticos en relación con la supervisión profesional de la validación clínica de la IA, la privacidad, la protección de datos y el consentimiento informado; señala que los macrodatos en materia de salud se pueden analizar con la ayuda de la IA para acelerar su tratamiento; subraya la importancia de garantizar que la informática de alto rendimiento sea interoperable con la IA, ya que los principales sectores económicos, incluidos la fabricación, la salud y los productos farmacéuticos, dependen de la informática de alto rendimiento;

25.  Subraya que las soluciones basadas en IA tienen el potencial de adaptar los tratamientos y el desarrollo de medicamentos a las necesidades específicas de los pacientes y mejorar el compromiso con las partes interesadas y los participantes en el sistema sanitario; considera que la IA y el acceso a conjuntos de datos pertinentes, actualizados y de alta calidad anonimizados y representativos, en consonancia con las normas de la Unión en materia de protección de datos personales, ayuda a los profesionales de la salud a prestar una mejor atención a sus pacientes, así como una información, orientación y apoyo más personalizados, promoviendo la seguridad de los pacientes y la eficacia terapéutica; pone de relieve que esto puede resultar especialmente útil a la hora de seleccionar y examinar los volúmenes cada vez mayores de conocimientos científicos para extraer la información pertinente para los profesionales de la salud; pone de relieve que los ciudadanos de todos los Estados miembros deben poder compartir sus datos sanitarios con los proveedores de asistencia sanitaria y las autoridades de su elección; subraya, en este sentido, la necesidad de crear incentivos para la mejora y readaptación de las capacidades de los trabajadores y prepararlos para asumir nuevos trabajos en el ámbito de la salud;

26.  Considera que la lucha contra la COVID-19 ha acelerado la investigación y el despliegue de nuevas tecnologías, en particular las aplicaciones de IA, para mejorar la detección de casos, la atención clínica y la investigación terapéutica, y ha puesto de relieve la utilidad de la IA, así como la importancia de la financiación y los datos de alta calidad para el seguimiento y la modelización eficientes de la propagación de brotes de enfermedades infecciosas, de conformidad con la legislación en materia de protección de datos; señala, no obstante, que las experiencias con las aplicaciones de IA durante la COVID-19 han puesto de manifiesto algunas de las limitaciones del uso de la IA en el diagnóstico médico (26);

27.  Destaca el potencial de los sistemas de IA para aliviar los sistemas sanitarios, en especial a los profesionales de la salud, y encontrar soluciones para abordar el rápido envejecimiento de la población en Europa y en el mundo y protegerla de enfermedades peligrosas;

28.  Pone de relieve que la utilización de aplicaciones de IA seguras y eficientes para tareas administrativas que no requieran intervención humana puede ahorrar a los profesionales sanitarios mucho tiempo que podrían dedicar a las consultas con los pacientes;

29.  Destaca que las aplicaciones sanitarias de los consumidores basadas en IA pueden facilitar el seguimiento del estado de salud de una persona a través de dispositivos cotidianos como los teléfonos inteligentes, permitiendo a los usuarios proporcionar voluntariamente datos que puedan servir de base para las alertas tempranas y para detectar enfermedades potencialmente mortales, como accidentes cerebrovasculares o paradas cardíacas; hace hincapié en que las aplicaciones sanitarias basadas en IA también pueden fomentar un comportamiento saludable y empoderar a los pacientes para que cuiden de sí mismos, dotándolos de medios adicionales para supervisar su propia salud y estilo de vida y mejorando la precisión del cribado por parte de los profesionales sanitarios; señala, no obstante, el carácter particularmente sensible de los datos sanitarios personales y el riesgo de que se produzcan usos indebidos o violaciones de la seguridad de los datos en este sentido, y destaca la necesidad de establecer normas de ciberseguridad estrictas para cualquier aplicación sanitaria;

30.  Destaca que la IA en el sector de la salud depende especialmente de la existencia de grandes cantidades de datos personales, el intercambio de datos, la alta calidad de los datos, la accesibilidad de los datos y la interoperabilidad de los mismos para aprovechar todo el potencial de la IA y la salud; destaca la necesidad de vincular historias clínicas digitales con los sistemas de prescripción electrónica, lo que permitiría a los profesionales sanitarios acceder a la información necesaria sobre sus pacientes, siempre que estos den su consentimiento;

31.  Acoge con satisfacción la creación de un espacio europeo de datos sanitarios con el fin de incorporar datos de muy alta calidad para su uso en el sector sanitario; considera que la interconexión y la interoperabilidad de infraestructuras de informática de alto rendimiento con el espacio europeo de datos sanitarios garantizaría la disponibilidad de conjuntos de datos sanitarios amplios y de alta calidad, que son importantes para la investigación y el tratamiento de patologías, especialmente las enfermedades minoritarias e infantiles;

32.  Destaca la necesidad de generar confianza promoviendo la interoperabilidad y una mayor colaboración entre los diferentes profesionales de la salud que atienden a los mismos pacientes; subraya la necesidad de ofrecer formación a los profesionales de la salud sobre las técnicas y los enfoques de la IA; destaca la necesidad de luchar contra la desconfianza, por ejemplo, aprovechando todo el potencial de la anonimización y la seudonimización de los datos, e informar mejor a los ciudadanos, a los profesionales de la salud y a los responsables de la toma de decisiones sobre los beneficios de la IA en el ámbito de la salud, y a los desarrolladores de IA sobre los desafíos y los riesgos del tratamiento de datos sensibles en este ámbito;

33.  Considera, además, que son necesarias normas éticas y jurídicas vinculantes y sólidas, así como vías de recurso ejecutables, para promover un ecosistema de confianza entre los ciudadanos y proteger adecuadamente los datos sanitarios frente a posibles usos indebidos y acceso ilícito; conviene con la Comisión en que los ciudadanos deben contar con un acceso seguro al historial electrónico completo de sus datos sanitarios, seguir teniendo control sobre sus datos sanitarios personales y poder compartirlos con terceros autorizados con la debida protección y una ciberseguridad sólida; destaca que debe prohibirse todo acceso y difusión no autorizados y que debe garantizarse la protección de los datos personales de los pacientes de conformidad con la legislación en materia de protección de datos;

34.  Subraya, a este respecto, el riesgo de que las decisiones sesgadas den lugar a discriminación y violaciones de los derechos humanos; destaca, por tanto, la necesidad de verificaciones imparciales de los algoritmos y conjuntos de datos utilizados, así como de la promoción de una mayor investigación sobre los métodos y sesgos integrados en sistemas de IA entrenados para evitar conclusiones discriminatorias y carentes de ética en el ámbito de los datos sanitarios de las personas;

35.  Destaca la necesidad de aplicar de manera eficiente y uniforme el RGPD en toda la Unión para superar retos como el de la inseguridad jurídica y la falta de cooperación en el sector sanitario; destaca que en ocasiones estos retos provocan largos retrasos en los descubrimientos científicos y una carga burocrática en la investigación sanitaria; destaca que la creación de un espacio europeo de datos sanitarios que garantice la portabilidad de datos y los derechos de los pacientes podría incrementar la cooperación y estimular el intercambio de datos de cara a la investigación y la innovación en el sector sanitario europeo;

36.  Señala que la IA puede contribuir al rápido desarrollo de las nuevas tecnologías, como la obtención de imágenes cerebrales, que ya tienen aplicaciones importantes en la medicina, pero también entrañan riesgos sustanciales para la voluntad humana y la expresión de los derechos fundamentales sin necesidad de consentimiento; muestra su preocupación por la falta de legislación sobre los datos neurológicos y opina que la Unión debe aspirar a convertirse en líder mundial del desarrollo de tecnologías neurológicas seguras;

b) La IA y el Pacto Verde

37.  Pone de relieve que las dos prioridades fundamentales de la Comisión para los próximos años son Una Europa Adaptada a la Era Digital y el Pacto Verde; subraya la necesidad de garantizar que la transición digital favorezca el desarrollo sostenible y promueva la transición verde; considera que esto requiere una aceleración de la innovación compatible con los objetivo climáticos y las normas medioambientales de la Unión; pone de relieve que las aplicaciones de IA pueden aportar beneficios medioambientales y económicos y reforzar las capacidades de predicción que pueden contribuir a la lucha contra el cambio climático y a la consecución de los objetivos del Pacto Verde Europeo y de la meta de la Unión de convertirse en el primer continente neutro desde el punto de vista climático de aquí a 2050; considera que el uso de la IA tiene el potencial de reducir las emisiones mundiales de gases de efecto invernadero hasta en un 4 % para 2030 (27); considera que, según algunas estimaciones, las TIC podrían reducir las emisiones de gases de efecto invernadero diez veces más que su propia huella (28), si bien reconoce que esto requiere una elección consciente de los diseños y medidas reguladoras; advierte, al mismo tiempo, de que el aumento del consumo de energía para almacenar los grandes conjuntos de datos necesarios para entrenar los sistemas de IA también puede tener un efecto negativo; recuerda que el tráfico de datos y la infraestructura de TIC consumen actualmente alrededor del 7 % de la electricidad del mundo, y que, sin las medidas oportunas, está previsto que aumente hasta el 13 % para 2030; añade que el uso intensivo de materias primas para la fabricación de microprocesadores y dispositivos de alta tecnología que utilizan la IA puede acrecentar, asimismo, este efecto negativo; subraya que, a fin de garantizar una «gran impronta positiva pero con una huella reducida» de la IA sobre el medio ambiente y el clima, debe tenerse en cuenta este impacto negativo directo e indirecto sobre el medio ambiente y los sistemas de IA deben diseñarse de forma sostenible para reducir el uso de recursos y el consumo de energía, evitando así operaciones de tratamiento innecesarias y daños para el medio ambiente; hace hincapié en que abordar el impacto medioambiental del sector de las TIC requiere información y datos pertinentes;

38.  Muestra preocupación por que solo seis Estados miembros hayan incluido una especial atención a las aplicaciones de IA en sus esfuerzos por cumplir los objetivos del Pacto Verde; considera que la IA puede servir para recopilar y organizar información relevante para la planificación medioambiental, la toma de decisiones y la gestión y el seguimiento del progreso de las políticas medioambientales, por ejemplo, para un aire más limpio, donde las aplicaciones de IA pueden controlar la contaminación y advertir de los peligros; pone de relieve que la IA y las soluciones digitales podrían utilizarse en varios sectores para generalizar soluciones que requieran menos recursos;

39.  Hace hincapié en la importancia de los sistemas basados en IA en el desarrollo de ciudades y pueblos inteligentes optimizando los recursos y mejorando la resiliencia de las infraestructuras, en especial mediante la predicción y reducción del tráfico, la gestión inteligente de la energía, la asistencia en caso de emergencia y los residuos, como ya sucede en varias ciudades y municipios de toda la Unión; destaca que las soluciones basadas en la IA pueden ayudar en los ámbitos de la planificación urbana, la arquitectura, la construcción y la ingeniería para reducir las emisiones, el tiempo, los costes y los residuos de la construcción;

40.  Destaca que la transición energética no tendrá lugar sin la digitalización; subraya que la IA puede controlar, optimizar y reducir el consumo y la producción de energía, así como apoyar la integración de las energías renovables en las redes eléctricas existentes; subraya que los contadores inteligentes, el alumbrado eficiente, la computación en la nube y el software distribuido junto con un componente de IA tienen el potencial de transformar los patrones de uso de la energía y promover un uso responsable;

41.  Pone de relieve que la creciente complejidad de un sistema de transición energética, con el aumento de la volatilidad de la generación renovable y los cambios en la gestión de la carga, hace necesario un mayor control automatizado para la seguridad del suministro energético; destaca que la IA tiene el potencial de ser beneficiosa para la seguridad de los suministros, especialmente en la explotación, la supervisión, el mantenimiento y el control de las redes de agua, gas y electricidad; observa, no obstante, que las tecnologías de red mejoradas mediante la IA introducirán millones de componentes inteligentes con vulnerabilidades comunes, añadiendo un gran número de posibles puntos de ataque a las redes energéticas y aumentando las vulnerabilidades de las infraestructuras críticas, si no se aplican las disposiciones pertinentes en materia de ciberseguridad; considera que las redes inteligentes requieren más inversiones e investigación;

42.  Considera que la IA y otras aplicaciones digitales para la movilidad y el transporte permiten optimizar los flujos de tráfico y mejorar la seguridad vial, aumentando también la eficiencia de los sistemas de transporte; señala que la IA puede ayudar con el diseño y la gestión energética de vehículos energéticamente eficientes; pone de relieve que las opciones de servicios de transporte y de uso compartido y alquiler de vehículos basados en aplicaciones han aumentado significativamente y que con frecuencia se utiliza IA en dichos servicios de movilidad, por ejemplo para planificar el recorrido y seleccionar los puntos de recogida de manera más eficiente;

43.  Considera que la IA puede desempeñar un papel transformador en el sector agrícola, apoyando la aparición de nuevos métodos de recolección, incluida la predicción de las cosechas y la gestión de los recursos agrícolas; destaca que la agricultura es un sector clave en el que la IA puede ayudar a reducir las emisiones y el uso de pesticidas, fertilizantes, productos químicos y agua, limitando su uso a la cantidad exacta y en una zona más restringida; destaca además que la IA puede contribuir a la restauración de la biodiversidad mediante la vigilancia de las especies en peligro o el seguimiento de las actividades de deforestación; pone de relieve la necesidad de desarrollar directrices para el despliegue y métodos normalizados de evaluación para impulsar la «IA verde» en ámbitos como las redes inteligentes, la agricultura de precisión, así como las ciudades y comunidades inteligentes y sostenibles; opina que la IA en forma de agricultura de precisión tiene un potencial para optimizar la producción de alimentos y la gestión más amplia de la tierra, al mejorar la ordenación territorial, predecir cambios en el uso de la tierra y realizar el seguimiento de la salud de los cultivos, así como transformar la predicción de los fenómenos meteorológicos extremos;

44.  Destaca que la IA puede contribuir a la economía circular haciendo que los procesos y conductas de producción, consumo y reciclado sean más eficientes en términos de recursos y aumentando la transparencia del uso de material, por ejemplo en lo que respecta al abastecimiento ético de materias primas y la reducción de los residuos; pone de relieve que la IA tiene el potencial de mejorar la comprensión por parte de las empresas de sus emisiones, incluidas las de las cadenas de valor, ayudándoles así a ajustar y alcanzar los objetivos individuales de emisiones; subraya que las herramientas digitales pueden ayudar a las empresas a dar los pasos necesarios hacia una conducta más sostenible, especialmente a las pymes que, de otro modo, podrían carecer de los recursos necesarios para ello;

45.  Destaca que actualmente no es posible utilizar la IA para medir con exactitud el impacto medioambiental; considera que es necesario realizar más estudios sobre el papel de la IA en la reducción del impacto medioambiental; destaca que se necesitan más datos medioambientales para obtener más información e inducir más progresos mediante soluciones de IA; subraya que el uso de la IA para conectar sistemáticamente los datos sobre las emisiones de CO2 con los datos sobre los patrones de producción y consumo, las cadenas de suministro y las rutas logísticas podría garantizar la detección de las actividades que tienen un impacto positivo o negativo;

c) La política exterior y la dimensión de seguridad de la IA

46.  Reitera que la Unión está presionando para lograr un acuerdo mundial sobre normas comunes para el uso responsable de la IA, lo cual es de vital importancia; cree, sin embargo, por principio, en el potencial de las democráticas afines para trabajar y contribuir juntas al debate internacional sobre un marco para la IA que sea respetuoso con los derechos humanos y el Estado de derecho, para cooperar hacia ciertas normas y principios comunes, normas técnicas y éticas mínimas y orientaciones para un comportamiento responsable a nivel estatal, en concreto a cargo de organizaciones internacionales como las Naciones Unidas y la OECD, y así promover el multilateralismo, el desarrollo sostenible, la interoperabilidad y el intercambio de datos en el panorama internacional; apoya, por consiguiente, el trabajo del Grupo de Trabajo de Composición Abierta de las Naciones Unidas sobre las TIC y la Seguridad Internacional; subraya que las medidas de fomento de la confianza son esenciales para aumentar el nivel de diálogo y confianza; pide, por tanto, una mayor transparencia en el uso de la IA a fin de garantizar una mejor rendición de cuentas;

47.  Acoge con satisfacción las recientes iniciativas multilaterales para desarrollar directrices y normas para un uso ético y responsable de la IA, como los principios de la OCDE sobre la IA, la Alianza Mundial sobre la IA, la Recomendación sobre la ética de la IA de la Unesco, la Cumbre Mundial «IA for Good», las recomendaciones del Consejo de Europa sobre un posible marco jurídico en materia de IA y las orientaciones políticas de UNICEF sobre la IA para los niños; acoge con satisfacción el trabajo en curso a nivel internacional en materia de normas de IA y el progreso realizado con las normas de la Organización Internacional de Normalización en las implicaciones de la IA para la gobernanza;

48.  Acoge con satisfacción el establecimiento y la puesta en funcionamiento del Consejo UE-EE. de Comercio y Tecnología (CCT); celebra el resultado de la primera reunión del CCT en Pittsburgh; ve el CCT como un posible foro de coordinación global entre la Unión y los Estados Unidos para establecer normas globales para la IA y normas tecnológicas mundiales que protejan nuestros valores comunes, a fin de impulsar la inversión, investigación y desarrollo comunes, y para una mayor coordinación política en las instituciones internacionales en cuestiones relacionadas con la tecnología y la IA;

49.  Pone de relieve el papel fundamental que puede desempeñar la Unión en establecer normas a escala mundial, como primer bloque del mundo en elaborar legislación en materia de IA; hace hincapié en que el marco jurídico de la Unión en materia de IA podría convertir a Europa en líder mundial en este sector y que debe, por tanto, promoverse a escala mundial mediante la cooperación con todos los socios internacionales, al tiempo que se prosigue con el diálogo crítico basado en la ética con terceros países con modelos de gobernanza y normas en materia de IA alternativos;

50.  Observa que el Gobierno chino ha firmado normas y acuerdos de cooperación con cincuenta y dos países a través de su Iniciativa de la Franja y la Ruta; advierte que, dado que varias de estas normas, incluidas las relativas a las tecnologías de IA y, en particular, las relacionadas con la vigilancia gubernamental y las libertades individuales, no están en consonancia con los derechos humanos y los valores de la UE, el activismo de China en lo que respecta a las normas supone un reto para la UE;

51.  Hace hincapié en que las tecnologías de IA, especialmente las que no se han diseñado y desarrollado con los procedimientos de control explícitos en vigor y se utilizan de forma inadecuada y sin supervisión en centros de mando militar o en instalaciones de lanzamiento de misiles, entrañan riesgos especialmente significativos y podrían agravar un conflicto recíproco automatizado;

52.  Observa que el uso de los sistemas de IA en desarrollos relacionados con la defensa se considera un factor determinante en las operaciones militares mediante el análisis de datos, la capacidad de reflejar una mayor complejidad situacional, el potencial para mejorar la precisión de los objetivos, optimizar la logística y participar en conflictos armados con un menor riesgo de daños físicos para la población civil y el propio personal militar, así como utilizando datos para desarrollar vías de acción, como por ejemplo los simulacros de combate; advierte, no obstante, que esto podría provocar la bajada del umbral para el uso de la fuerza y, por lo tanto, más conflictos; afirma que las máquinas no pueden tomar decisiones de carácter humano que impliquen principios jurídicos de distinción, proporcionalidad y precaución; afirma que las personas deben mantener el control sobre el despliegue y el uso de armas y deben seguir siendo responsables del uso de la fuerza letal y de las decisiones sobre la vida o la muerte; Considera que los sistemas armamentísticos basados en IA deben estar sometidos a normas globales y a un código ético de conducta internacional para respaldar el despliegue de tecnologías de IA en operaciones militares, dentro del pleno respeto del Derecho internacional humanitario y el Derecho en materia de derechos humanos, y en consonancia con el Derecho y los valores de la Unión;

53.  Muestra preocupación por la investigación militar y el interés de algunos países en incentivar desarrollos tecnológicos relacionados con sistemas de armas autónomos letales sin supervisión humana significativa; observa que estos sistemas de armas autónomos letales ya se utilizan en los conflictos militares; recuerda que el Parlamento, en repetidas ocasiones, ha pedido la prohibición internacional del desarrollo, producción y utilización de sistemas armamentísticos autónomos letales y ha exigido negociaciones efectivas para iniciar su proceso de prohibición; hace hincapié en que en ningún caso puede permitirse que los sistemas basados en IA sustituyan a la toma de decisiones humanas, cuando estas conciernan a los principios legales de distinción, proporcionalidad y precaución;

54.  Señala, en concreto, que la tecnología de IA puede entrañar riesgos como medio para incentivar diversas formas de guerra híbrida e injerencia extranjera; especifica que, por ejemplo, podría movilizarse para propagar la desinformación, utilizando bots o cuentas falsas en las redes sociales, convertir en arma la interdependencia, recopilando información valiosa o negando el acceso a la red a los adversarios, crear perturbaciones en los sistemas económicos y financieros de otros países, contaminar el debate político y favorecer a los grupos extremistas o manipular las elecciones y desestabilizar las democracias;

55.  Ilustra que las tecnologías de IA también podrían incluir malware impulsado por IA, robo de identidad, contaminación de datos u otros tipos de aprendizaje automatizado adversos que provoquen que otros sistemas de IA malinterpreten los datos introducidos; señala, en particular, el aumento de las ultrafalsificaciones, que no necesariamente son ciberataques, pero que hacen dudar de la autenticidad de todos los contenidos digitales, incluidos los vídeos, y por tanto exigen especial atención en términos de requisitos de transparencia; advierte que las ultrafalsificaciones podrían contribuir a un amplio clima de desconfianza general de la IA, así como a una mayor polarización sociopolítica en nuestras sociedades;

56.  Explica que el uso de sistemas de IA en una cantidad significativa de infraestructuras críticas clave, como las redes de energía y transporte, el sector aeroespacial, la cadena alimentaria, las infraestructuras bancarias y financieras y los centros hospitalarios, ha creado nuevas vulnerabilidades que requieren medidas de ciberseguridad rigurosas para prevenir amenazas; señala, en este contexto, la importancia de la cooperación, el intercambio de información y la adopción de medidas tanto a nivel de la Unión como en los Estados miembros; subraya la importancia de fomentar la resiliencia de organismos críticos frente a las amenazas híbridas;

57.  Advierte que el alto nivel de precisión que puede alcanzar la IA puede entrañar riesgos para la seguridad, ya que puede inducir a los humanos a depositar tal confianza en la IA que confíen en ella más que en su propio juicio; observa que aplicar un enfoque humano como mecanismo corrector no es viable en todos los casos; señala que los experimentos han demostrado que esto puede elevar el nivel de autonomía de la IA más allá del papel de apoyo para el que fue diseñada originalmente y significa que los humanos pierden oportunidades de ganar experiencia y perfeccionar sus habilidades y conocimientos de los sistemas de IA; subraya, por lo tanto, que es necesario que los sistemas de IA de alto riesgo cuenten con medidas de seguridad desde su concepción y con control humano, garantizando para ello el entrenamiento y las medidas de protección y privacidad apropiadas, a fin de superar el sesgo de automatización;

58.  Hace hincapié, no obstante, en que la IA puede utilizarse para predecir cortes de energía e identificar necesidades de mantenimiento con gran precisión; especifica, asimismo, que puede utilizarse para sintetizar grandes cantidades de datos a través de la extracción automática de información o la clasificación automática de información, y para detectar patrones específicos; destaca que estos elementos permitirían predecir y evaluar mejor el nivel de amenaza y las vulnerabilidades del sistema, agilizar los procesos de toma de decisiones, mejorar la capacidad de reacción y asegurar los dispositivos terminales más efectivamente;

59.  Subraya, en especial, el potencial inherente de permitir a las fuerzas de seguridad identificar y contrarrestar las actividades delictivas con la ayuda de la tecnología de IA; subraya que estas actividades de las fuerzas de seguridad relacionadas con la IA requieren, sin embargo, el pleno respeto de los derechos fundamentales, una estricta vigilancia democrática, normas claras de transparencia, una infraestructura informática sólida, control humano, empleados altamente cualificados y acceso a grandes cantidades de datos de alta calidad;

d) La IA y la competitividad

60.  Señala que cada vez más productos y servicios a lo largo de la cadena de valor estarán interconectados en un futuro próximo y que la IA y la automatización desempeñarán un importante papel en la mayoría de los procesos de fabricación, operaciones y modelos de negocio; subraya la importancia primordial de la investigación básica para el desarrollo de ecosistemas industriales de IA, así como de una inversión sustancial para promover la administración pública digital y mejorar la infraestructura digital;

61.  Observa que, a pesar del significativo aumento del capital riesgo y otros modos de financiación para empresas emergentes en los dos últimos años, muchas industrias europeas se están quedando rezagadas y los niveles de financiación actuales en la UE siguen siendo insuficientes y deben reforzarse sustancialmente para igualar el dinamismo de los ecosistemas de IA más importantes como Silicon Valley; destaca la estructura singular en red de agrupaciones del ecosistema de innovación de la Unión, en contraposición a ecosistemas de innovación centralizados (y con apoyo público);

62.  Subraya que la IA tiene el potencial de impulsar la competitividad de la industria de la Unión y la productividad, acelerar la innovación, mejorar los procesos de fabricación y ayudar a supervisar la resiliencia de las cadenas de suministro europeas;

63.  Señala el riesgo de interrupción de las cadenas de suministro bien establecidas debido a la desvinculación económica o a catástrofes como pandemias o fenómenos relacionados con el cambio climático; destaca que la IA puede ayudar a detectar patrones de perturbaciones en las cadenas de suministro y contribuir a los sistemas de mantenimiento predictivo, lo que podría apoyar la diversificación de los proveedores;

64.  Observa que las empresas que han iniciado la disrupción digital se han visto a menudo recompensadas con ganancias importantes de cuota de mercado; señala que estudios recientes indican que es probable que esta pauta se repita con mayor intensidad, ya que las empresas que adoptan la IA a menudo recopilan grandes cantidades de datos, lo que tiende a mejorar su posición competitiva; muestra preocupación por los riesgos que la concentración del mercado conlleva en detrimento de las pymes y de las empresas emergentes;

65.  Hace hincapié en que esta perspectiva es especialmente preocupante, ya que el monopolio de las grandes empresas tecnológicas, que aunque son guardianes del mercado también capturan la mayor parte del valor generado, probablemente se extienda también a las tecnologías de IA; destaca que, dado que los datos que impulsan el sector de la IA son recogidos en su inmensa mayoría por las mismas grandes empresas tecnológicas, que ofrecen a los usuarios acceso a los servicios a cambio de datos y exposición a la publicidad dirigida, es probable que su actual dominio del mercado se convierta, en sí mismo, en un motor para seguir extendiendo este dominio; señala que, aunque muchas de estas empresas tecnológicas están establecidas fuera de la Unión, logran capturar el valor generado por los datos de clientes europeos, lo que les da una ventaja competitiva;

66.  Acoge con satisfacción la reciente Comunicación de la Comisión en la que se pide que se actualicen las normas de competencia para adaptarlas a la era digital (29) y destaca el papel clave de las medidas ex ante, incluida la futura Ley de Mercados Digitales, para contrarrestar la concentración antes de que surja; subraya, además, el papel que la normalización y la cooperación normativa pueden desempeñar a la hora de abordar este problema, facilitando el desarrollo global de productos y servicios independientemente de su ubicación física;

67.  Subraya que las pymes y las empresas emergentes están desempeñando un papel fundamental en la introducción de las tecnologías de IA en la UE, ya que representan el grueso de todas las empresas y son una fuente de innovación fundamental; observa, sin embargo, que las empresas emergentes de IA con mayor potencial se enfrentan a importantes obstáculos para expandirse por Europa, debido al carácter incompleto del mercado único digital y a la divergencia normativa en muchos Estados miembros, o que, cuando consiguen abrirse camino, son adquiridas por empresas tecnológicas más grandes; lamenta que las pymes se enfrenten a menudo a la escasez de financiación, a procedimientos administrativos complejos y a la falta de competencias adecuadas y de acceso a la información; observa que, en el pasado, las autoridades de competencia de la Unión han permitido la mayoría de las adquisiciones extranjeras de empresas europeas de IA y robótica;

68.  Destaca que el uso intensivo de algoritmos, por ejemplo para establecer precios, también podría originar problemas específicos de la IA totalmente nuevos dentro del mercado único; observa que las autoridades antimonopolio podrían, por ejemplo, tener dificultades para demostrar la colusión de precios entre los sistemas de establecimiento de precios basados en la IA; añade, además, que los pocos proveedores de IA que ya participan en la negociación de valores podrían presentar un riesgo sistémico para los mercados financieros, también a través de la colusión; subraya que la colusión algorítmica puede ser muy difícil de identificar, ya que los sistemas basados en IA no necesitan comunicarse entre sí de la manera en que lo hacen los seres humanos por prácticas colusorias, lo que puede hacer imposible demostrar la intención colusoria; subraya el riesgo que esto supone para la estabilidad del mercado y la necesidad de que las autoridades de competencia nacionales y de la Unión desarrollen estrategias y herramientas adecuadas; pone de relieve, además, el riesgo sistémico para los mercados financieros derivado del uso generalizado de sistemas y modelos de comercio algorítmicos sin interacción humana, que en el pasado han amplificado en gran medida los movimientos del mercado y que probablemente lo hagan de nuevo en el futuro;

69.  Observa que muchas de las empresas de IA dentro de la UE se enfrentan actualmente a la inseguridad jurídica con respecto a la forma en que pueden desarrollar sus productos y servicios de forma garantizada, como consecuencia de las cargas burocráticas, un solapamiento entre la legislación sectorial existente y la ausencia de normas y estándares de IA establecidos;

70.  Destaca el reto para las empresas de IA en términos de control de calidad y protección de los consumidores; concluye que la transparencia y la fiabilidad son esenciales para conseguir que las empresas de la UE adquieran una ventaja competitiva, ya que estos factores son clave para que un producto o servicio sea finalmente aceptado por el mercado en el futuro;

71.  Señala que, aunque el 26 % de las publicaciones de investigación de alto valor en materia de IA procede de Europa, solo cuatro de los treinta principales solicitantes (13 %) y el 7 % de las empresas que se dedican a patentar productos de IA en todo el mundo son europeos;

72.  Considera que la legislación de la UE en materia de propiedad intelectual requiere armonización, una aplicación clara y transparente y un marco equilibrado, aplicable y predecible que permita a las empresas europeas, y en particular a las pymes y a las empresas emergentes, asegurar de forma adecuada y sencilla la protección de la propiedad intelectual;

73.  Muestra su preocupación por que las medidas de protección de la propiedad intelectual por parte de las pymes sigan siendo escasas, dado que no son plenamente conscientes de sus derechos ni disponen de recursos suficientes para defenderlos; destaca la importancia de que las pymes activas en sectores de alta intensidad de conocimiento dispongan de información y estadísticas en materia de protección de la propiedad intelectual y acoge con satisfacción los esfuerzos, incluidos los procedimientos de registro simplificados y la reducción de las tasas administrativas, para informar mejor a las pymes y a las empresas emergentes y facilitar su acceso a la protección de la propiedad intelectual; señala que, con objeto de ayudar a las empresas de la UE a proteger sus derechos de propiedad intelectual sobre la IA, debería reforzarse la posición de la Unión como organismo normativo global; hace hincapié en que la competitividad y el atractivo a nivel internacional se basan en un mercado único fuerte y resiliente, también en lo relativo a la protección y el respeto de la propiedad intelectual;

74.  Afirma que la analítica de datos, así como el acceso, el intercambio y la reutilización de datos no personales, son ya esenciales para muchos productos y servicios basados en datos hoy en día, pero serán importantes para el desarrollo y el despliegue de los próximos sistemas de IA; destaca, sin embargo, que la mayor parte de los datos no personales generados en la UE hasta ahora no se utilizan, en tanto que aún no existe un mercado único de datos;

75.  Señala la importancia de facilitar el acceso a los datos y su intercambio, así como de las tecnologías de código abierto y las normas abiertas, como forma de potenciar las inversiones e impulsar la innovación en tecnología de IA en la Unión; especifica que una mejor armonización de las interpretaciones de las autoridades nacionales de protección de datos, así como de las orientaciones sobre los datos mixtos y las técnicas de despersonalización, resultaría útil para los desarrolladores de IA;

76.  Destaca el papel que puede desempeñar la IA ayudando en la actuación de las autoridades europeas y nacionales, en particular en los ámbitos de las aduanas y la vigilancia del mercado; opina que los procedimientos comerciales y aduaneros pueden hacerse más eficientes y rentables a través de la IA, velando por un mayor respeto de los requisitos y por que solo entren en el mercado único productos seguros; señala el ejemplo del sistema de evaluación y gestión de ingresos de la Agencia de Servicios Fronterizos de Canadá, que simplifica en gran medida los procedimientos de importación y exportación mediante la evaluación de riesgos cualificada basada en IA y la gestión de información digitalizada simplificada para reducir la necesidad de largas inspecciones;

e) La IA y el mercado laboral

77.  Señala que la IA está influyendo cada vez más en el mercado laboral, el lugar de trabajo y el ámbito social, y que los efectos del cambio tecnológico en el trabajo y el empleo son multifacéticos; hace hincapié en que el uso de la IA en estos ámbitos plantea varios desafíos éticos, jurídicos y laborales; expresa su preocupación por que, en lo que respecta al mercado laboral, la digitalización podría conducir a la reorganización de los trabajadores y a la posible desaparición de determinados sectores de empleo; considera que la adopción de la IA, si se combina con la infraestructura de apoyo y el aprendizaje y la formación necesarios, podría aumentar sustancialmente el capital y la productividad laboral, la innovación, el crecimiento sostenible y la creación de empleo;

78.  Destaca que, aunque la IA puede sustituir algunas tareas, incluidas las repetitivas, las pesadas, las que requieren mucha mano de obra o las peligrosas, también podría ayudar a desarrollar competencias, mejorar la calidad del trabajo y crear nuevos empleos de mayor valor añadido, dejando más tiempo para las tareas estimulantes y el desarrollo profesional; destaca que la IA ya está sustituyendo o complementando a los humanos en un subconjunto de tareas, pero que aún no está teniendo consecuencias agregadas significativas detectables en el mercado laboral (30); hace hincapié, sin embargo, en la posibilidad de que aumente la desigualdad de renta si la IA favorece las ocupaciones de alta cualificación y sustituye las de baja cualificación; añade que cualquier repercusión económica y social debe mitigarse con las medidas, la investigación y la previsión adecuadas, para lo cual es necesario invertir en el reciclaje profesional y en mejorar las cualificaciones de la mano de obra, centrándose en los grupos infrarrepresentados como las mujeres y las minorías, que probablemente se verán más afectados por esta transición, y promoviendo la diversidad en todas las fases de desarrollo de los sistemas de IA; expresa su preocupación por que la IA pueda ocasionar procesos de pérdida de cualificaciones y crear e integrar empleos de bajo salario y poca autonomía, así como extender las formas de empleo atípico y flexible (trabajo de pequeños encargos); subraya que la gestión mediante algoritmos podría crear desequilibrios de poder y opacidad entre la propia gestión y los empleados y opacidad sobre la toma de decisiones;

79.  Destaca que la implementación de IA ofrece la oportunidad de promover un cambio cultural significativo dentro de las organizaciones, incluso mediante la mejora de la seguridad en el lugar de trabajo, conseguir un mejor equilibrio entre la vida laboral y personal y ofrecer el derecho a la desconexión y orientación y oportunidades de formación más eficaces; señala, a este respecto, las recomendaciones de la OCDE que destacan que la automatización también podría traducirse en una reducción del número de horas trabajadas y mejorar, de esta manera, las condiciones de vida y la salud de los trabajadores; opina que las aplicaciones de IA que empoderan al ser humano también podrían crear nuevas oportunidades de trabajo, en particular para aquellos que, debido a restricciones como discapacidades o circunstancias de vida, han estado sujetos a trabajos menos cualificados hasta ahora; destaca la necesidad de utilizar la asistencia de la IA en el lugar de trabajo para que las personas dispongan de tiempo para mejorar la calidad de sus resultados, en lugar de simplemente aumentar la carga de trabajo;

80.  Condena que cada vez se esté recurriendo más a la vigilancia basada en IA en el lugar de trabajo, lo que sucede a menudo sin el conocimiento de los trabajadores, y mucho menos su consentimiento, en particular también en el contexto del teletrabajo; sostiene que esta práctica no debe permitirse, ya que es extremadamente abusiva con respecto al derecho fundamental a la privacidad, a la protección de datos y a la dignidad humana del trabajador y a los derechos sociales y laborales, y también tiene efectos negativos sobre la salud mental de los trabajadores debido al grado de intrusión, su efecto general o indiscriminado y la falta de salvaguardias para las personas afectadas;

81.  Expresa su preocupación por que en el entorno escolar también exista un riesgo similar de vigilancia, con la cada vez mayor adopción de sistemas de IA en las escuelas, lo que socava los derechos fundamentales de los niños; observa que las implicaciones que reviste la IA para la privacidad, la seguridad y la protección de los niños presentan una amplia variedad, y abarcan desde las ventajas relativas a la capacidad para entender las amenazas a las que se enfrentan los menores con una mayor especificidad y precisión hasta los riesgos de violaciones no intencionadas de la privacidad; subraya que las implicaciones tanto positivas como negativas para la privacidad, la seguridad y la protección de los niños en la era de la IA requieren un minucioso examen y las correspondientes salvaguardas; destaca, además, que debe prestarse especial atención y protección a los niños a la hora de desarrollar sistemas de IA debido a su naturaleza especialmente sensible y a sus vulnerabilidades específicas;

82.  Subraya que es fundamental proporcionar a las personas programas globales de desarrollo de capacidades en todas las etapas de la vida, a fin de permitirles seguir siendo productivos en un lugar de trabajo en constante evolución y evitar su exclusión del mercado laboral; considera que la adaptación de la mano de obra en términos de educación, aprendizaje permanente y reciclaje profesional sobre IA es de vital importancia; pone de relieve que los conceptos actuales de aprendizaje y trabajo se siguen definiendo en demasiada medida por un mundo predigital, lo que también está contribuyendo a un creciente déficit de competencias y a una nueva brecha digital para los ciudadanos que no tienen acceso a un espacio digital seguro; destaca que la mejora de la alfabetización digital contribuye a la consecución de los objetivos de desarrollo sostenible, en particular los relativos a la educación, el capital humano y las infraestructuras; hace hincapié en el conocimiento adquirido sobre las nuevas formas de trabajo y aprendizaje a raíz de la crisis de la COVID-19 y la necesidad de seguir profundizando en ellas;

83.  Señala que, para aprovechar plenamente las ventajas de la digitalización, la Unión debe abordar la alfabetización digital y las cibercapacidades para todos; considera que la alfabetización digital es una condición indispensable para que los ciudadanos confíen en los efectos de la IA y sean conscientes de sus efectos; hace hincapié en la importancia de incluir formación básica en competencias digitales e IA en los sistemas nacionales de educación; cree que la implantación y el desarrollo de la tecnología de IA en el ámbito de las lenguas minoritarias podría ayudar a darlas a conocer y promover su uso; destaca que más del 70 % de las empresas señalan la falta de personal con competencias digitales y de IA adecuadas como un obstáculo para la inversión; muestra preocupación por que en 2019 hubiera 7,8 millones de especialistas en TIC en la UE, con una tasa de crecimiento anual previa del 4,2 %, lo que está muy lejos de los 20 millones de expertos que se necesitan para ámbitos clave como el análisis de datos, según las previsiones de la Comisión;

84.  Muestra preocupación por la amplia brecha de género en este ámbito, ya que solo uno de cada seis especialistas en TIC y uno de cada tres licenciados en ciencias, tecnología, ingeniería y matemáticas (CTIM) son mujeres (31); observa con preocupación la persistencia de la brecha de género, especialmente en el ámbito de las empresas emergentes, en el que, en el año 2019, 92 dólares estadounidenses (USD) de cada 100 USD invertidos en empresas tecnológicas europeas se destinó a equipos fundadores formados íntegramente por hombres; recomienda destinar iniciativas específicas al apoyo de las mujeres en el ámbito de las CTIM, a fin de reducir el déficit de cualificaciones general en este sector; insiste en que esta brecha da lugar inevitablemente a algoritmos sesgados; insiste en la importancia de empoderar y motivar a las niñas para que posteriormente elijan carreras de CTIM y de erradicar la brecha de género en este ámbito;

f) La IA y el futuro de la democracia

85.  Afirma que la IA tiene, por una parte, el potencial de ayudar a construir un sector público más transparente y eficiente, pero, por otra parte, que los avances técnicos en el ámbito de la IA, impulsados a menudo por una lógica de crecimiento y beneficios, son muy rápidos y dinámicos, lo que dificulta que los responsables políticos comprendan suficientemente cómo funcionan las nuevas aplicaciones de IA y qué tipo de resultados pueden producir, aunque tienen la obligación de proporcionar un marco para garantizar que la IA respete los derechos fundamentales y pueda utilizarse en beneficio de la sociedad; pone de relieve que las previsiones de los expertos en cuanto al futuro impacto de la IA también varía, lo que sugiere que podría ser difícil, incluso para ellos, predecir los resultados de un amplio despliegue de nuevas tecnologías de IA; sostiene por tanto que esta incertidumbre acrecienta la necesidad de los legisladores de tener debidamente en cuenta el principio de precaución en la regulación de la IA; considera que es fundamental consultar a expertos de distintas áreas y procedencias a fin de crear una legislación sólida, práctica y orientada al futuro; advierte que la inseguridad jurídica puede ser uno de los mayores impedimentos para la innovación; señala, a este respecto, la importancia de promover la alfabetización en materia de IA entre los ciudadanos, incluidos los representantes electos y las autoridades nacionales;

86.  Advierte que los ciclos legislativos no suelen estar sincronizados con el ritmo del progreso tecnológico, lo que fuerza a los responsables políticos a ponerse al día y favorecer la regulación de casos de uso que ya se encuentran en el mercado; señala que un enfoque regulador sólido de la IA debe ir precedido de un análisis exhaustivo de la proporcionalidad y la necesidad, a fin de no obstaculizar la innovación y la competitividad de las empresas de la Unión;

87.  Destaca que el uso de la IA para adquirir datos biométricos podría ser tanto intrusivo como perjudicial o beneficioso para los individuos, así como para el público en general;

88.  Observa con preocupación que estas tecnologías de IA plantean cuestiones éticas y jurídicas cruciales; señala que determinadas tecnologías de IA permiten automatizar el tratamiento de la información a una escala sin precedentes, lo que allana el camino para la vigilancia colectiva y la injerencia de manera ilegal y representa una amenaza para los derechos fundamentales, en especial el derecho a la privacidad y la protección de datos;

89.  Destaca que muchos regímenes autoritarios utilizan sistemas de IA para controlar, espiar, seguir y clasificar a sus ciudadanos, restringir su libertad de circulación y ejercer vigilancia colectiva; hace hincapié en que cualquier forma de marcaje normativo ciudadano por parte de las autoridades públicas, especialmente en el ámbito de las fuerzas de seguridad del Estado, el control de las fronteras y el poder judicial, así como su uso por parte de empresas privadas o particulares, conduce a la pérdida de autonomía y privacidad y no está en consonancia con los valores europeos; recuerda que tecnologías como la cibervigilancia y el reconocimiento biométrico, que pueden utilizarse para estos fines, están sujetas al Reglamento sobre el control de las exportaciones de la Unión; muestra su profunda preocupación por los casos anteriores de empresas de la Unión que han vendido a regímenes autoritarios de países no pertenecientes a la Unión sistemas biométricos cuyo uso sería ilegal en la Unión y condena estos casos;

90.  Observa que las plataformas tecnológicas dominantes hoy en día no solo tienen un importante control sobre el acceso a la información y su distribución, sino que también utilizan tecnologías de IA para obtener más información sobre la identidad y el comportamiento de una persona, y el conocimiento de su historial de decisiones; considera que esta elaboración de perfiles plantea riesgos para los sistemas democráticos, así como para la salvaguardia de los derechos fundamentales y la autonomía de los ciudadanos; destaca que esto genera un desequilibrio de poder y plantea riesgos sistémicos que podrían afectar a la democracia;

91.  Señala que las plataformas digitales pueden ser utilizadas, también mediante aplicaciones de marketing basadas en la IA, por la injerencia extranjera y para difundir desinformación y ultrafalsificaciones, actuando como redes de propaganda, troleo y acoso con el objetivo de socavar los procesos electorales; destaca que el aprendizaje automático permite, en particular, el uso selectivo de datos personales para manipular a votantes que no sean conscientes de ello, creando mensajes personalizados y convincentes; hace hincapié en la importancia de unas estrictas obligaciones de transparencia que se hagan cumplir de manera efectiva;

92.  Subraya, no obstante, que la IA también podría utilizarse para reducir las actividades antidemocráticas y poco éticas en las plataformas, y como medio para limitar la distribución de noticias falsas e incitación al odio, a pesar de que las pruebas de su capacidad para comprender contenidos específicos del contexto han arrojado hasta ahora resultados deficientes; muestra su preocupación por el hecho de que el lenguaje divisivo puede generar una mayor participación de los usuarios, por lo que su eliminación entraría en conflicto directo con el modelo de negocio de estas plataformas, que se basa en maximizar la participación de los usuarios; opina que las soluciones basadas en la IA deben basarse en el pleno respeto de la libertad de expresión y opinión, y en pruebas sólidas a su favor, antes de su posible uso;

93.  Destaca que los sesgos en los sistemas de IA, en especial en lo que respecta a los sistemas de aprendizaje profundo, se producen a menudo debido a la falta de datos de entrenamiento y de prueba diversos y de alta calidad, por ejemplo, cuando se utilizan conjuntos de datos que no representan suficientemente a los grupos vulnerables, o cuando la definición de la tarea o el establecimiento de los propios requisitos están sesgados; señala que también puede producirse sesgos por la falta de diversidad en los equipos de desarrolladores de la IA, que refuerza los sesgos intrínsecos, debido al volumen limitado de datos de entrenamiento, o cuando un desarrollador de IA sesgado ha comprometido el algoritmo; señala que la diferenciación razonada también se genera de manera intencionada para mejorar el rendimiento de aprendizaje de la IA en determinadas circunstancias;

94.  Destaca que los sesgos estructurales presentes en nuestra sociedad no deben repetirse ni mucho menos aumentarse por medio de conjuntos de datos de baja calidad; especifica en este sentido que los algoritmos aprenden a ser tan discriminatorios como los datos con los que trabajan y, a consecuencia de unos datos de entrenamiento de baja calidad o los sesgos y la discriminación observados en la sociedad, podrían sugerir decisiones que son inherentemente discriminatorias, lo que exacerba la discriminación dentro de la sociedad; observa, no obstante, que los sesgos de la IA a veces puede ser corregidos; concluye que, por tanto, es necesario aplicar medios técnicos y establecer distintos niveles de control en los sistemas de IA, como en el software, los algoritmos y los datos utilizados y elaborados por estos, con el fin de minimizar el riesgo; sostiene, por tanto, que la IA puede y debe utilizarse para reducir los sesgos y la discriminación en nuestras sociedades y promocionar la igualdad de derechos y un cambio social positivo, también mediante requisitos normativos para los conjuntos de datos que se usan para entrenar los sistemas de IA; destaca que uno de los modos más eficientes de reducir los sesgos en los sistemas de IA es garantizar, con los límites impuestos por el Derecho de la Unión, que se dispone de la máxima cantidad de datos personales con fines de entrenamiento y aprendizaje automático;

g) Conclusiones recurrentes en los seis estudios de caso

95.  Observa que existen beneficios y oportunidades evidentes para la sociedad asociados a la adopción de tecnologías de IA que solo pueden aprovecharse si se abordan los obstáculos transversales en la Unión, de conformidad con los derechos fundamentales, los valores y la legislación; afirma que los solapamientos en la legislación, la fragmentación del mercado, las trabas burocráticas, la falta de infraestructuras digitales accesibles y de competencias digitales en el conjunto de la sociedad se perciben, en particular, como obstáculos para la aplicación satisfactoria de la IA en todos los ámbitos analizados;

96.  Concluye, además, de los estudios de casos examinados que algunos casos de uso son arriesgados o perjudiciales, pero que el problema no reside necesariamente en las tecnologías de IA específicas, sino en sus ámbitos de aplicación; reconoce que la futura regulación debe abordar las preocupaciones legítimas relacionadas con estos riesgos, con el fin de que las tecnologías de IA gocen de una amplia aplicación en la Unión;

97.  Afirma que, si bien es importante examinar y categorizar los riesgos potenciales que plantea la IA, los estudios de caso ilustran que las tecnologías de la IA pueden permitirnos aplicar contramedidas eficaces capaces de mitigar o eliminar esos mismos riesgos; subraya que, dado que la IA está todavía en sus primeras fases de desarrollo dentro de un contexto más amplio de tecnologías emergentes, su potencial total y sus riesgos aún no están claros; señala que es necesario examinar no solo los riesgos para los individuos, sino también los perjuicios para el conjunto de la sociedad y los daños individuales no materiales; destaca los importantes desequilibrios de poder de mercado presentes en los mercados de datos y en la economía de IA adyacente; destaca que la competencia leal y la eliminación de los obstáculos para que las empresas emergentes y las pymes puedan competir son esenciales para el reparto justo de los beneficios potenciales de la IA en términos económicos y sociales, que parecen ser significativos tanto a escala global como de la Unión;

3.El lugar de la UE en la competencia mundial de la IA

98.  Observa una feroz competencia mundial en materia de IA, en la que la Unión aún no ha cumplido sus aspiraciones; examina en los siguientes apartados la competitividad global de la Unión en materia de IA comparándola con la de China y los Estados Unidos, centrándose en tres elementos fundamentales: enfoque normativo, posición en el mercado e inversiones; reconoce, no obstante, que los mercados transnacionales y las empresas no pueden delimitarse fácilmente a través de las fronteras nacionales, ya que la mayoría de las empresas tecnológicas tienen clientes, accionistas, empleados y proveedores en numerosos países;

a) Enfoque normativo

99.  Señala que los Estados Unidos aún no han introducido legislación horizontal en el ámbito digital, y que hasta la fecha se han centrado en leyes sectoriales y en facilitar las inversiones, también a través de medidas impositivas sobre la innovación del sector privado, en particular entre sus gigantes tecnológicos y sus principales universidades; observa que, a pesar de los recientes acontecimientos que muestran un papel más activo en la elaboración de políticas, la estrategia de los Estados Unidos ha mostrado interés hasta ahora, principalmente, en proporcionar orientación jurídica a las empresas, invertir en proyectos de investigación y eliminar los obstáculos a la innovación detectados;

100.  Destaca que la Ley de Iniciativa Americana de Inteligencia Artificial de 2019 supuso un ligero reajuste, ya que además de reorientar la financiación, reciclar a los trabajadores y reforzar la infraestructura digital, el Gobierno estadounidense anunció el desarrollo de normas comunes para una IA de confianza; señala, sin embargo, que los diez principios resultantes se formularon de forma muy amplia para permitir a cada organismo gubernamental crear regulación específica para cada sector; espera que, aunque el actual Gobierno estadounidense tiene previsto presentar una nueva carta de derechos para limitar los daños causados por la IA en 2022, el planteamiento de los Estados Unidos seguirá estando orientado al mercado;

101.  Pone de relieve que el presidente chino Xi Jinping subrayó ya en 2013 la importancia de las tecnologías en la geopolítica, del papel de las políticas públicas en la definición de objetivos a largo plazo y del hecho de que las tecnologías de la IA ofrezcan la oportunidad de mejorar sus capacidades militares; destaca además que el Gobierno chino presentó posteriormente el plan Made in China 2025, en 2015, y el Plan de Desarrollo de la IA de Nueva Generación, en 2017, ambos con el claro objetivo de convertir a China en el líder mundial de la IA para 2030; observa que el Libro Blanco chino de la normalización de la IA de 2018 esbozó además cómo la economía de mercado socialista puede desarrollar normas internacionales y participar estratégicamente en las organizaciones internacionales de normalización; toma nota de la introducción de normas sobre sistemas de recomendación, así como de un código ético sobre la IA en China;

102.  Observa que en la escena mundial, China promueve activamente las asociaciones internacionales de IA como una forma de exportar sus propias prácticas de vigilancia basadas en la IA, su sistema de puntuación ciudadana y sus estrategias de censura; hace hincapié en que las cuantiosas inversiones en el extranjero en el marco de la Iniciativa de la Ruta Digital de la Seda también se utilizan como medio para difundir la influencia china y su tecnología de IA a escala mundial, lo que podría tener implicaciones de gran alcance más allá de la imposición de normas tecnológicas o del mantenimiento de la competitividad tecnológica; concluye que el planteamiento chino se basa, por tanto, en el despliegue de la IA a escala nacional, así como en la exportación de tecnologías de IA basadas en normas predeterminadas en consonancia con la ideología del Gobierno chino;

103.  Observa que la Comisión comenzó su trabajo de regulación de la IA en 2018 publicando la estrategia europea de IA, creando un Grupo de Expertos de Alto Nivel e introduciendo un plan coordinado (32) para fomentar la «IA hecha en Europa»; observa que el Libro blanco de 2020 sobre la IA propuso numerosas medidas y opciones políticas para la futura regulación de la IA y finalmente dio lugar a la Ley horizontal sobre la IA (33), que se presentó con un plan coordinado revisado sobre la IA (34) en mayo de 2021; señala que a fecha de junio de 2021 ya hay 20 Estados miembros que han publicado estrategias nacionales de IA, mientras que otros 7 están en la fase final de preparación para adoptar las suyas;

104.  Hace hincapié en que el planteamiento regulador de la Unión se basa en una gran atención al desarrollo de un mercado único digital europeo, así como a las consideraciones éticas, en consonancia con los valores fundamentales de los derechos humanos y los principios democráticos; afirma que el establecimiento del primer marco regulador del mundo en materia de IA podría suponer una ventaja para la Unión, como pionera, para establecer normas internacionales de IA basadas en los derechos fundamentales, así como para exportar con éxito la «IA de confianza» centrada en el ser humano a todo el mundo; subraya que es necesario apoyar este planteamiento mediante la coordinación regulatoria y la convergencia con socios democráticos afines;

b) Situación del mercado

105.  Observa que la gran mayoría de las 100 empresas líderes en IA a nivel mundial tienen su sede en los Estados Unidos, mientras que solo algunas tienen su sede en la Unión; toma nota de que los Estados Unidos también están a la cabeza del número total de empresas de IA de reciente creación;

106.  Señala que, en los últimos años, varias empresas digitales europeas han sido adquiridas por gigantes tecnológicos estadounidenses; celebra el objetivo de la Comisión de hacer frente a las adquisiciones que puedan tener un impacto significativo en la competencia efectiva en el mercado digital y de limitar las adquisiciones «asesinas»; señala, no obstante, que, en algunos casos, la adquisición puede ser uno de los objetivos principales de los creadores de las empresas emergentes y de los que las financian, como método legítimo para obtener beneficios procedentes de sus ideas;

107.  Destaca que mientras los Estados Unidos y China intentan acelerar el uso de las tecnologías de la IA en los sectores público y privado, la adopción de la IA en la UE sigue a la zaga; afirma que, en 2020, solo el 7 % de las empresas de la Unión con al menos 10 empleados utilizaban tecnologías de IA, con diferencias significativas entre los Estados miembros y entre los distintos sectores empresariales;

108.  Expresa su preocupación por el hecho de que, mientras que los Estados Unidos y China tienen un mercado digital unificado con un conjunto coherente de normas, el mercado único digital de la Unión aún no está completo y adolece de obstáculos injustificados; destaca que el desarrollo de productos y servicios de IA podría verse ralentizado aún más por el trabajo en curso sobre 27 estrategias nacionales diferentes en materia de IA;

109.  Señala también el hecho de que las incoherencias en la legislación de la Unión, los solapamientos de las distintas iniciativas legislativas, las contradicciones entre la legislación de la Unión y las nacionales, las diferentes interpretaciones jurídicas y la falta de aplicación entre los Estados miembros impiden la igualdad de condiciones y amenazan con crear inseguridad jurídica para las empresas europeas, que pueden tener dificultades a la hora de determinar si sus innovaciones en materia de IA son conformes con la legislación de la Unión;

110.  Observa que la fragmentación del mercado para las empresas de IA se ve agravada aún más por la falta de estándares y normas comunes en algunos sectores, también en materia de interoperabilidad de los datos; lamenta el riesgo normativo derivado del retraso de la legislación, como el Reglamento sobre la privacidad y las comunicaciones electrónicas; destaca como ejemplo el hecho de que los desarrolladores de IA de la Unión se enfrentan a una dificultad de obtención de datos al que no se enfrentan sus homólogos estadounidenses o chinos, debido a que el mercado único digital europeo aún está incompleto; observa que a menudo no disponen de suficientes datos de alta calidad para entrenar y probar sus algoritmos y tienen que lidiar con la falta de espacios de datos sectoriales y de interoperabilidad intersectorial, así como con las restricciones a los flujos de datos transfronterizos;

c) Inversiones

111.  Observa que las empresas y los gobiernos europeos invierten mucho menos en tecnologías de IA que los Estados Unidos o China; señala que, aunque las inversiones privadas en la industria de la IA de la Unión están aumentando significativamente, la Unión sigue invirtiendo sustancialmente poco en IA en comparación con otras regiones líderes, habida cuenta de que los Estados Unidos y China representan más del 80 % de las inversiones anuales de capital de los 25 000 millones de euros en IA y tecnología de cadena de bloques, mientras que la cuota de la Unión solo asciende al 7 %, aproximadamente 1 750 millones de euros; destaca que la liquidez en los mercados de financiación de la Unión para las empresas tecnológicas no alcanza la envergadura de los mercados comparables de los Estados Unidos; observa que los Estados Unidos también están a la cabeza de la financiación de capital riesgo y de capital privado, que resulta especialmente importante para las empresas emergentes de IA, con 12 600 millones de euros en 2019, frente a los 4 800 millones de China y los 1 200 millones de la Unión; señala que, como consecuencia, muchos empresarios europeos dedicados a la IA están cruzando el Atlántico para ampliar sus negocios en Estados Unidos;

112.  Afirma que, junto con las iniciativas nacionales, la inversión pública anual estimada de la Unión en IA, 1 000 millones de euros (35), es también muy inferior a los 5 100 millones de euros que se invierten anualmente en los Estados Unidos y hasta 6 800 millones de euros en China (36); señala, no obstante, que entre 2017 y 2020, la financiación pública de la Unión para investigación e innovación en IA aumentó un 70 % en comparación con el período anterior, y que en 2019 la Unión invirtió entre 7 900 y 9 000 millones de euros en IA, lo que supuso un 39 % más que en el año anterior; reconoce y celebra que los planes de la Comisión para aumentar aún más la inversión a través del programa Europa Digital, Horizonte Europa, InvestEU, los Fondos Estructurales y de Inversión Europeos, el Fondo Europeo de Inversiones, el Mecanismo «Conectar Europa» en el ámbito de las telecomunicaciones y varios programas de la política de cohesión se vayan a complementar e impulsar con la meta mínima del 20 % de gasto para la transición digital en los planes nacionales de recuperación y resiliencia, acordados por la Comisión y los Estados miembros en virtud del Mecanismo de Recuperación y Resiliencia; subraya, no obstante, el reciente informe del Banco Europeo de Inversiones, que calcula una brecha de inversiones en tecnologías de IA y cadena de bloques en la Unión de entre 5 000 y 10 000 millones de euros al año;

113.  Destaca que las empresas de IA de la Unión tienen que hacer frente a una fuerte competencia para encontrar empleados cualificados, ya que el 42 % de la población de la Unión carece de las competencias digitales básicas; subraya que hace falta formar y atraer a un número sustancialmente superior de licenciados con buena formación, incluidas mujeres, para que trabajen en el sector digital;

114.  Observa que, aunque la Unión cuenta con una excelente comunidad de investigadores en materia de IA, la fuga de cerebros de investigadores de la Unión sigue siendo un problema; hace hincapié en que se necesitan medidas para atraer a los investigadores más destacados; señala que la Unión solo dedicó el 2,32 % de su PIB a investigación y desarrollo (I+D) en 2020, mientras que los Estados Unidos dedicaron el 3,08 %; recuerda que los Estados miembros han de mantener su compromiso de invertir el 3 % de su PIB en investigación y desarrollo, a fin de lograr la autonomía estratégica de la Unión en el ámbito digital;

115.  Observa que la infraestructura digital de la Unión necesita una puesta al día sustancial, ya que solo el 25 % de los habitantes de la Unión puede conectarse a una red 5G, frente al 76 % de los habitantes de Estados Unidos; observa que la Unión carece de una infraestructura digital suficiente de alto rendimiento con espacios de datos interoperables, altas tasas y volúmenes de transmisión, fiabilidad y retrasos cortos; destaca la necesidad de apoyar los ecosistemas europeos de IA con clústeres de excelencia;

d) Conclusión

116.  Concluye que Estados Unidos es el líder global en IA, ya que está por delante en numerosas categorías, con sedes de empresas referentes en el desarrollo tecnológico en áreas como la computación en la nube o las capacidades de computación de alto rendimiento, y también en lo que respecta a la inversión, la atracción de talento en IA, la investigación y la infraestructura; pone de relieve, sin embargo, que China, que hace pocos años seguía estando significativamente por detrás de Estados Unidos en todos los indicadores, se está poniendo rápidamente al día; reconoce que ambos países tienen la ventaja de contar con un mercado único unificado y un compromiso político mayor por conservar su posición de líderes en IA;

117.  Destaca que, a pesar de la firme posición de la Unión en materia de software industrial y robótica, los agentes de la Unión siguen estando rezagados con respecto a sus homólogos estadounidenses y chinos en numerosas categorías; subraya que la Unión debe desarrollar un plan ambicioso para la IA europea centrada en el ser humano; señala que la Unión, sin embargo, va por delante en cuanto a las estrategias normativas; señala que una estrategia viable de la Unión para ser más competitiva en materia de IA implica hacer hincapié en la investigación y la innovación, las competencias, la infraestructura y la inversión en IA, al tiempo que se intenta establecer un marco normativo horizontal orientado al futuro y favorable a la innovación para el desarrollo y el uso de la IA, garantizando al mismo tiempo la salvaguarda del Estado de Derecho y de los derechos fundamentales de los ciudadanos de la Unión;

118.  Subraya que el Brexit tuvo un efecto negativo en los esfuerzos de la Unión por reforzar su papel mundial en materia de IA, ya que el Reino Unido era uno de los países más avanzados de la Unión en este ámbito; destaca, no obstante, que el Reino Unido debe seguir siendo un socio valioso para la Unión, lo que impulsaría la competitividad de ambos socios y la promoción de perspectivas normativas compartidas en la fijación de normas a nivel mundial;

119.  Concluye que la Unión aún está lejos de cumplir su aspiración de ser competitiva en el ámbito de la IA a escala mundial, y puede correr el riesgo de quedarse más rezagada en algunas categorías; sostiene que una acción rápida en relación con la hoja de ruta de la Unión para la IA que se describe a continuación brinda una oportunidad para cambiar esta situación;

120.  Especifica que, dado que la Unión no tiene poder legislativo para abordar todos los puntos enumerados en la hoja de ruta de la Unión para la IA, la Comisión especial recomienda que se propicien más debates de alto nivel y más procesos políticos entre las instituciones de la Unión y los Estados miembros para impulsar un enfoque más armonizado en materia de IA y para contribuir a que los Estados miembros coordinen sus esfuerzos; se refiere a este respecto a la Agenda de Lisboa de la UE de 2000, que, a pesar de las críticas, contribuyó a guiar la orientación política de la Unión durante 20 años y a mantener la presión sobre los Estados miembros para su reforma;

4. «Una Europa adaptada a la era digital»: hoja de ruta para convertirse en líder mundial

a) Marco normativo favorable

i. Legislación

121.  Pide a la Comisión que proponga únicamente actos legislativos en forma de reglamento para nuevas leyes digitales en ámbitos como la IA, ya que el mercado único digital debe someterse a un proceso de auténtica armonización; está convencido de que, dado el rápido desarrollo tecnológico, la legislación digital siempre debería estar basada en principios y ser flexible, tecnológicamente neutra, preparada para el futuro y proporcionada, adoptando a la vez un enfoque basado en el riesgo, cuando proceda, respetando los derechos fundamentales y evitando cargas administrativas innecesarias para las pymes, las empresas emergentes, el mundo académico y la investigación; destaca, además, la importancia de un alto nivel de seguridad jurídica y, en consecuencia, la necesidad de contar con criterios de aplicabilidad, definiciones y obligaciones sólidas, prácticas e inequívocas en todos los textos legales relativos a la venta, el uso o el desarrollo de tecnologías de IA;

122.  Cree que el Programa de Mejora de la Legislación es un elemento clave para el éxito de la estrategia de la Unión en materia de IA; destaca la necesidad de concentrarse en los mecanismos de revisión, adaptación, aplicación y ejecución de las leyes ya existentes antes de proponer nuevos actos legislativos;

123.  Insta a la Comisión a que elabore evaluaciones de impacto ex ante detalladas, con un análisis prospectivo y de riesgos adecuado, antes de presentar nuevas propuestas digitales en ámbitos tales como la IA; hace hincapié en que las evaluaciones de impacto deben cartografiar y evaluar sistemáticamente la legislación vigente en la materia, evitando solapamientos o conflictos;

124.  Propone que las nuevas leyes en ámbitos como la IA deben ir acompañadas de la promoción de normas europeas elaboradas por las partes interesadas; opina que la Unión debe esforzarse por evitar la fragmentación y que las normas internacionales pueden servir de referencia útil, pero que la Unión debe dar prioridad a la elaboración de su propia normativa; recalca que dicha normativa debe ser el resultado de una competencia leal entre las mejores normas dentro de la Unión, que deben ser examinadas por la Unión y por las organizaciones de normalización; observa que las normas técnicas y las instrucciones de diseño podrían combinarse entonces con sistemas de etiquetado como manera de desarrollar la confianza del consumidor ofreciendo servicios y productos de confianza; destaca el papel de las organizaciones de normalización de la Unión en el desarrollo de normas técnicas de vanguardia; pide a la Comisión que acelere la expedición de mandatos de normalización a las organizaciones europeas de normalización de conformidad con el Reglamento (UE) n.º 1025/2012 del Parlamento Europeo y del Consejo, de 25 de octubre de 2012, sobre la normalización europea (37);

125.  Explica que una plataforma de certificación abierta podría establecer un ecosistema de confianza que implique a Gobiernos, sociedad civil, empresas y otras partes interesadas;

126.  Pide que el Parlamento, la Comisión y el Consejo traten los conflictos de competencias internos en lo que respecta a asuntos de carácter general como la IA, ya que dichos conflictos amenazan con retrasar el procedimiento legislativo, con un efecto dominó en lo que respecta a la entrada en vigor de legislación;

ii. Gobernanza y control de la ejecución

127.  Pide la coordinación, la aplicación y el cumplimiento coherentes en toda la Unión de la legislación en materia de IA;

128.  Explica que los foros de consulta basados en partes interesadas, como el Comité Europeo de Innovación en los Datos, que será establecido por la Ley de Gobernanza de Datos, o la Alianza europea de la IA, que incluye asociaciones público-privadas, como la Alianza Europea para los datos industriales y la computación periférica y en la nube, constituyen un enfoque de gobernanza prometedor; puntualiza que este enfoque permite al ecosistema de IA de la Unión poner en práctica sus principios, valores y objetivos y reflejar intereses sociales a nivel del código de software;

129.  Destaca que el «problema de seguimiento del ritmo» requiere prestar especial atención a la aplicación efectiva ex post por parte de los tribunales y las agencias reguladoras, así como a enfoques ex ante para hacer frente a los retos jurídicos que plantean las tecnologías emergentes; apoya, por tanto, el uso de entornos controlados de pruebas, que brindarían a los desarrolladores de IA la oportunidad única de experimentar de una manera rápida, ágil y controlada bajo la supervisión de las autoridades competentes; señala que estos entornos controlados de pruebas serían espacios experimentales en los que probar los sistemas de IA y los nuevos modelos de negocio en condiciones reales en un espacio controlado antes de su entrada real en el mercado;

iii. Marco jurídico de la IA

130.  Pone de relieve que un objetivo subyacente a la estrategia digital de la Unión, así como al de la estrategia de la IA, es crear un «enfoque europeo» en un mundo digitalizado; aclara que este enfoque debe estar centrado en el ser humano, ser fiable, guiarse por principios éticos y basarse en el concepto de economía social de mercado; subraya que la persona y la protección de sus derechos fundamentales deben permanecer siempre en el centro de todas las consideraciones políticas;

131.  Está de acuerdo con la conclusión extraída por la Comisión en su Libro Blanco sobre la inteligencia artificial, de 2020, en el sentido de que es necesario establecer un marco jurídico basado en el riesgo para la IA, que abarque, especialmente, normas éticas de alto nivel basadas en mecanismos de transparencia, auditoría y rendición de cuentas, combinadas con disposiciones de seguridad de los productos, normas de responsabilidad adecuadas y disposiciones específicas para el sector, y que al mismo tiempo proporcione a las empresas y a los usuarios suficiente flexibilidad y seguridad jurídica y unas condiciones de competencia equitativas para fomentar la adopción de la IA y la innovación;

132.  Apunta al valor añadido orientativo de tomar los conceptos, la terminología y las normas desarrollados por la OCDE como inspiración para la definición de la IA en la legislación; destaca que hacerlo daría a la Unión una ventaja en la configuración de un futuro sistema de gobernanza internacional de la IA;

133.  Está convencido de que la IA no siempre debe estar regulada en tanto que tecnología, sino que el nivel de la intervención reguladora debe ser proporcional al tipo de riesgo individual o social que entraña el uso de un sistema de IA; subraya, a este respecto, la importancia de distinguir entre casos de uso de la IA de «alto riesgo» y de «bajo riesgo»; concluye que la primera categoría requiere más salvaguardias legislativas estrictas, mientras que la segunda, en muchos casos requerirá requisitos de transparencia para los usuarios finales y los consumidores;

134.  Especifica que la clasificación de los sistemas de IA como de «alto riesgo» debe basarse en su uso concreto y en el contexto, la naturaleza, la probabilidad, la gravedad y la posible irreversibilidad de los daños que cabe esperar que se produzcan y que vulneren los derechos fundamentales y las normas de salud y seguridad establecidas en el Derecho de la Unión; destaca que esta clasificación debe ir acompañada de orientaciones y de la promoción del intercambio de mejores prácticas para los desarrolladores de IA; destaca que el derecho a la privacidad debe respetarse siempre y que los desarrolladores de IA deben garantizar el pleno cumplimiento de las normas sobre protección de datos;

135.  Subraya que los sistemas de IA que probablemente interactúen con niños o que les afecten de otro modo deben tener en cuenta sus derechos y vulnerabilidades y cumplir las más estrictas normas de seguridad e intimidad desde el diseño y por defecto;

136.  Señala que los entornos en los que operan los sistemas de IA pueden diferir significativamente en un entorno entre empresas en comparación con un entorno entre empresa y consumidor; señala que deben protegerse jurídicamente los derechos de los consumidores mediante normativa de protección de los consumidores; recalca que, aunque las empresas pueden resolver la responsabilidad y otros desafíos legales de forma rápida y rentable por medios contractuales directamente con sus socios comerciales, puede ser necesaria legislación para proteger a las empresas más pequeñas del abuso de poder del mercado por parte de agentes dominantes a través del bloqueo comercial o tecnológico, barreras a la entrada en el mercado o problemas de información asimétrica; recalca que también es necesario tener en cuenta las necesidades de las pymes y las empresas emergentes con requisitos legislativos demasiado complejos, para evitar ponerlas en desventaja frente a las grandes empresas, que cuentan con los recursos para mantener departamentos legales y de verificación del cumplimiento importantes;

137.  Subraya la necesidad de aplicar un enfoque basado en principios a las cuestiones éticas no resueltas que plantean las nuevas posibilidades tecnológicas derivadas de la venta y el uso de aplicaciones de IA, también a través del uso de principios fundamentales y obligatorios como el principio de no maleficencia, el principio de respeto de la dignidad humana y los derechos fundamentales o la protección del proceso democrático; observa que las buenas prácticas en el desarrollo de la IA, como la IA centrada en el ser humano, la gobernanza responsable y los principios de transparencia y explicabilidad, así como los principios de IA sostenible que estén en plena consonancia con la Agenda 2030 para el Desarrollo Sostenible de las Naciones Unidas, son otros componentes importantes para configurar la economía de la IA;

138.  Reconoce que no siempre es posible eliminar completamente los algoritmos de la IA, ya que el objetivo ideal de usar datos sin errores es muy difícil o casi imposible de alcanzar; observa que incluso un sistema de IA que haya sido probado se encontrará inevitablemente con escenarios reales que pueden producir resultados sesgados cuando se despliegue en un entorno diferente de aquel para el que fue entrenado y probado; destaca que la Unión debe esforzarse por mejorar la transparencia de los conjuntos de datos y algoritmos, cooperar muy estrechamente con los desarrolladores de IA para contrarrestar y reducir los sesgos sociales estructurales y tener en cuenta la adopción de normas obligatorias de diligencia debida en materia de derechos humanos en una fase temprana de desarrollo;

139.  Explica que las obligaciones de transparencia o explicabilidad significativa de los sistemas de IA, si bien son útiles en muchas ocasiones, puede que no se puedan aplicar en todos los casos; señala que los derechos de propiedad intelectual y los secretos comerciales deben protegerse frente a prácticas injustas como el espionaje industrial;

140.  Afirma que el marco legislativo sobre la propiedad intelectual debe seguir incentivando y protegiendo a los innovadores de la IA mediante la concesión de patentes como recompensa por desarrollar y publicar sus creaciones; considera que la mayoría de la normativa vigente está preparada para el futuro, pero propone determinados ajustes, como la integración de elementos de código abierto y el recurso a la contratación pública para encargar, cuando proceda, programas informáticos de código abierto para soluciones de IA; propone nuevas formas de concesión de licencias de patentes para garantizar que las herramientas estén disponibles para regiones e iniciativas que, de otro modo, no podrían permitírselas;

141.  Considera que las autoevaluaciones de riesgos ex ante obligatorias basadas en reglas y normas claras, así como en evaluaciones de impacto sobre la protección de datos, complementadas por evaluaciones de la conformidad a cargo de terceros con el marcado CE pertinente y adecuado, junto con el control del cumplimiento ex post mediante la vigilancia del mercado, podrían ser útiles para garantizar que los sistemas de IA en el mercado sean seguros y fiables; considera que, con el fin de evitar que las pymes se vean expulsadas del mercado, se deben elaborar normas y guías sobre cumplimiento de la legislación en materia de IA, con la estrecha participación de pequeñas empresas, alineadas internacionalmente todo lo posible, que deben estar disponibles de manera gratuita;

142.  Señala que, para aumentar la seguridad de los productos y mejorar la identificación de los fallos, los desarrolladores de IA de alto riesgo deben garantizar que se conserven de forma segura los registros accesibles de la actividad algorítmica; considera que, cuando proceda, los desarrolladores también deberían diseñar sistemas de IA de alto riesgo con mecanismos incorporados —«interruptores de parada inmediata»— para que la intervención humana detenga de manera segura y eficiente las actividades automatizadas en cualquier momento y garantizar un enfoque basado en la participación humana; considera que los resultados y el razonamiento del sistema de IA deben ser siempre comprensibles para los seres humanos;

143.  Reconoce los retos jurídicos que plantean los sistemas de IA y que es necesario plantear una revisión de determinadas partes de las normas de responsabilidad existentes; espera con interés, en este sentido, la presentación de la propuesta legislativa de la Comisión sobre la responsabilidad en materia de IA; destaca que la Directiva sobre responsabilidad por los daños causados por productos defectuosos (38) y los sistemas nacionales de responsabilidad basados en la culpa pueden seguir siendo, en principio, la legislación central para contrarrestar la mayor parte de los daños causados por la IA; subraya que en algunos casos podrían obtenerse resultados inadecuados, pero advierte que cualquier revisión debe tener en cuenta la legislación vigente en materia de seguridad de los productos y debe basarse en lagunas claramente determinadas, estando al mismo tiempo adaptada para el futuro y siendo susceptible de aplicarse efectivamente y de garantizar la protección de las personas en la Unión;

144.  Subraya que, en cuanto a la comprensión de los riesgos, el marco jurídico no debe someter a los niños al mismo nivel de responsabilidad personal que a los adultos;

145.  Observa que se pueden considerar algunos cambios en las definiciones legales de «producto», incluidas las aplicaciones informáticas integradas, los servicios digitales y la dependencia entre productos, y de «productor», incluidos el operador final, el proveedor de servicios y el proveedor de datos, a fin de garantizar la posibilidad de indemnización por los daños causados por estas tecnologías; destaca, no obstante, que debe evitarse un enfoque demasiado amplio o excesivamente restrictivo de la definición de «producto»;

146.  Señala que, debido a las características de los sistemas de IA, como su complejidad, conectividad, opacidad, vulnerabilidad, capacidad de modificación mediante actualizaciones, capacidad de autoaprendizaje y autonomía potencial, así como la multitud de agentes que participan en su desarrollo, despliegue y uso, existen retos importantes para la eficacia de las disposiciones del marco de responsabilidad civil nacional y de la Unión; considera, por tanto, que, si bien no es necesaria una revisión completa de los regímenes de responsabilidad que funcionan correctamente, son necesarios ajustes específicos y coordinados de los regímenes de responsabilidad europeos y nacionales para evitar una situación en la que las personas que sufren daños o cuyas propiedades sufren daños no llegan a recibir indemnización alguna; especifica que, si bien los sistemas de IA de alto riesgo deben entrar en el ámbito de aplicación de la legislación en materia de responsabilidad objetiva, junto con la cobertura de seguro obligatoria, cualesquiera otras actividades, dispositivos o procesos impulsados por sistemas de IA que causen daños o perjuicios deben seguir estando sujetos a responsabilidad subjetiva; cree, no obstante, que la persona afectada debe poder acogerse a una presunción de culpa del operador, salvo si este último demuestra que ha observado el deber de diligencia;

iv. Dificultad de obtención de datos en la UE

147.  Toma nota de las conclusiones extraídas por la Comisión en su Comunicación de 2020 titulada «Una estrategia europea de datos» y por el Parlamento en su Resolución, de 25 de marzo de 2021, sobre el mismo tema, en las que se afirma que la creación de un espacio único europeo de datos, acompañado del desarrollo de espacios de datos sectoriales y un enfoque basado en normas comunes, es fundamental para garantizar la rápida escalabilidad de las soluciones de IA en la Unión y fuera de ella, así como para garantizar la autonomía estratégica abierta y la prosperidad económica de la Unión; recuerda el vínculo esencial entre la disponibilidad de datos de alta calidad y el desarrollo de aplicaciones de IA; destaca, a este respecto, la necesidad de desplegar servicios en nube sólidos, fiables e interoperables dentro de la Unión, así como soluciones que aprovechen el análisis de datos descentralizado y la arquitectura periférica; pide a la Comisión que aclare los derechos de acceso, uso e intercambios de datos por parte de los titulares de datos no personales creados conjuntamente; subraya que el acceso a los datos debe ser técnicamente posible, también mediante interfaces interoperables normalizadas y programas informáticos interoperables; recalca que los obstáculos al intercambio de datos conducirían a una menor innovación y competencia y a la promoción de estructuras de mercado oligopolísticas, que amenazan con perpetuarse en el mercado contiguo para las aplicaciones de IA;

148.  Recalca la importancia clave de abrir silos de datos y de fomentar el acceso a los datos para el desarrollo y el uso de la IA, según se describe en la Resolución del Parlamento sobre la Estrategia Europea de Datos; destaca que los desequilibrios del mercado derivados de una mayor restricción de datos por parte de empresas privadas multiplican las barreras de entrada en el mercado y reducen el acceso y el uso más amplios de los datos, lo que hace especialmente difícil para las empresas emergentes y los investigadores adquirir u obtener la autorización para usar los datos que necesitan para entrenar sus algoritmos; subraya la necesidad de establecer la seguridad jurídica y la infraestructura técnica interoperable necesarias, incentivando al mismo tiempo a los titulares de datos en Europa para que pongan a disposición sus ingentes cantidades de datos no utilizados; considera que el intercambio de datos voluntario entre empresas basado en acuerdos contractuales justos contribuye a alcanzar este objetivo; reconoce, no obstante, que los acuerdos contractuales entre empresas no garantizan necesariamente el acceso adecuado a los datos para las pymes, debido a disparidades en el poder de negociación o en los conocimientos técnicos; hace hincapié en que los mercados de datos abiertos facilitan el intercambio de datos al ayudar a las empresas y los investigadores en el ámbito de la IA a adquirir u obtener la autorización de uso de datos de quienes deseen facilitar datos en dichos mercados, por ejemplo mediante catálogos de datos, y permiten a los titulares de datos y a los usuarios negociar transacciones de intercambio de datos; acoge favorablemente, en este contexto, las normas en materia de intermediación de datos recogidas en la Ley de Gobernanza de Datos;

149.  Acoge con satisfacción las iniciativas de la federación europea en la nube, como la Alianza para los Datos Industriales y la Computación Periférica y en la Nube, así como el proyecto GAIA-X, cuyo objetivo es desarrollar una infraestructura de datos federada y crear un ecosistema que permita la escalabilidad, la interoperabilidad y la autonomía de los proveedores de datos; observa que el código normativo relativo a la computación en la nube de la Unión, que compila legislación e iniciativas de autorregulación existentes, también contribuiría a traducir principios y valores comunes de la Unión en procesos y controles ejecutables para los responsables técnicos;

150.  Recomienda que se siga reforzando la interoperabilidad de los datos y que se establezcan normas comunes para facilitar el flujo de datos entre diferentes máquinas y entidades a fin de mejorar el intercambio de datos entre países y sectores y permitir la creación a gran escala de conjuntos de datos de alta calidad; observa que, más allá de las normas abiertas, el software de fuente abierta, las licencias de Creative Commons y las interfaces de programación de aplicaciones (API) abiertas también podrían desempeñar un papel clave en la aceleración del intercambio de datos; destaca el papel de los espacios comunes europeos de datos a la hora de facilitar la libre circulación de datos en la economía de datos europea;

151.  Pide a la Comisión y a los Estados miembros que garantice una ejecución más firme de las condiciones contractuales justas dentro del ámbito de las normas de competencia, con el objetivo de abordar los desequilibrios de poder de mercado sin interferir de manera injustificada con la libertad contractual, y que se dote de equipos y recursos a las autoridades de defensa de la competencia para contrarrestar la tendencia a la concentración de datos; subraya que los espacios europeos de datos permitirían a las empresas cooperar más estrechamente entre sí, por lo que considera que estas necesitan una mayor orientación y claridad jurídica en materia de Derecho de la competencia y más cooperación en materia de intercambio y puesta en común de datos; recalca que la cooperación en materia de datos, también para el entrenamiento de aplicaciones de IA o en la industria del internet de las cosas, no debería facilitar bajo ninguna circunstancia la formación de cárteles ni crear barreras para los nuevos participantes en un mercado; hace hincapié en la importancia de aclarar los derechos contractuales de los desarrolladores y las empresas de IA que contribuyen a la creación de datos a través del uso de algoritmos o máquinas de internet de las cosas, en particular los derechos de acceso a datos, de portabilidad de los datos, a instar a otra parte a que deje de utilizar datos y a corregir o suprimir datos;

152.  Pide a los Estados miembros, en lo que respecta a datos de titularidad gubernamental, que ejecuten rápidamente la Directiva sobre datos abiertos (39) y apliquen adecuadamente la Ley de Gobernanza de Datos, poniendo a disposición, idealmente de manera gratuita, conjuntos de datos de alto valor y suministrándolos en formatos legibles por máquina e interfaces de programación de aplicaciones; recalca que esta iniciativa reduciría los costes para los organismos públicos de difundir y reutilizar sus datos y ayudaría enormemente a los investigadores y las empresas de la Unión a mejorar sus tecnologías digitales en ámbitos como la IA;

153.  Pide una implementación uniforme del RGPD en toda la Unión mediante la aplicación eficaz y rápida del mecanismo de coherencia y la racionalización de las distintas interpretaciones nacionales de la ley; considera que es asimismo necesario preparar mejor a las autoridades de protección de datos, en particular dotándolas de más conocimientos técnicos;

154.  Toma nota de las orientaciones prácticas de la Comisión de 2019 sobre cómo tratar conjuntos de datos mixtos; señala que no intercambiar conjuntos de datos a menudo sigue siendo la mejor opción para los investigadores y las empresas en el ámbito de la IA debido a la inseguridad jurídica en torno a si se han anonimizado suficientemente los datos;

155.  Considera que el dictamen 5/2014 del Grupo de Trabajo sobre Protección de Datos del artículo 29 de 10 de abril de 2014 sobre técnicas de anonimización ofrece una visión de conjunto útil, que podría desarrollarse en mayor medida; pide al Comité Europeo de Protección de Datos (en lo sucesivo, «CEPD») que adopte directrices basadas en casos de uso específicos y situaciones pertinentes para diferentes tipos de responsables y encargados del tratamiento de datos y diferentes situaciones de tratamiento, incluida una lista de verificación con todos los requisitos que deben cumplirse para anonimizar suficientemente los datos; observa, sin embargo, que actualmente las técnicas de anonimización no pueden garantizar una protección plena y completa de la intimidad, ya que los experimentos han mostrado que los sistemas de IA modernos pueden volver a identificar a las personas;

156.  Pide al CEPD que emita más orientaciones para los investigadores y las empresas en ámbitos como la IA sobre cómo tratar de forma eficaz datos personales fuera de la Unión de una manera que sea conforme con el RGPD;

157.  Propone financiar más investigación sobre la normalización de enfoques de «protección de la intimidad desde el diseño», así como promover soluciones criptográficas y aprendizaje automático que proteja la intimidad, ya que resulta fundamental garantizar que se puedan utilizar datos de alta calidad para entrenar algoritmos y realizar tareas de IA sin vulnerar la intimidad; observa que los fondos de datos, las certificaciones para aplicaciones de IA alto riesgo, los sistemas de gestión de información personal y el uso de datos sintéticos también muestran resultados prometedores;

158.  Anima a la Unión y a sus Estados miembros a que aprovechen el proyecto de la OCDE establecido recientemente sobre el acceso fiable por parte de los gobiernos a datos personales en poder del sector privado como referencia para que los responsables políticos a escala mundial trabajen en favor de una solución internacional y la convergencia reglamentaria de las mejores prácticas en este ámbito; recalca, a este respecto, que la libre circulación de datos y metadatos a través de las fronteras internacionales, en el pleno respeto del acervo de la Unión en materia de protección de datos, es un factor decisivo para la innovación digital en Europa; pide, por consiguiente, a la Comisión que se abstenga de imponer requisitos de localización de datos, excepto cuando sea necesario para proteger los derechos fundamentales, incluida la protección de datos, o en casos limitados, proporcionados y justificados, en los que dicha política vaya en interés de la Unión o sea necesaria para defender las normas europeas;

159.  Pide a la Comisión que responda a la sentencia del Tribunal de Justicia de la Unión Europea (en lo sucesivo, «TJUE») de que el Escudo de la privacidad UE-EE. UU. es inválido adoptando todas las medidas necesarias para garantizar que cualquier nueva decisión de adecuación con respecto a los Estados Unidos cumpla plenamente el RGPD, la Carta de los Derechos Fundamentales de la Unión Europea y todos los aspectos de la sentencia del TJUE, simplificando al mismo tiempo los flujos transatlánticos de datos; pide a la Comisión que prosiga las conversaciones sobre adecuación de datos con otros países no pertenecientes a la Unión, dado que esta es la mejor manera de promover las políticas de protección de datos de la Unión y permitir el intercambio internacional de datos;

b) Culminación del mercado único digital

i. Estrategias nacionales en materia de IA

160.  Pide a los Estados miembros que revisen sus estrategias nacionales en materia de IA, ya que muchas de ellas siguen siendo vagas y carecen de objetivos claros, también por lo que respecta a la educación digital para el conjunto de la sociedad y las cualificaciones avanzadas para especialistas; recomienda a los Estados miembros que formulen acciones concretas, cuantificables y específicas, tratando de crear al mismo tiempo sinergias entre ellas;

161.  Pide a la Comisión que ayude a los Estados miembros a establecer prioridades y a adecuar sus estrategias y sus marcos normativos nacionales en materia de IA en la medida de lo posible, con el fin de garantizar la coherencia y la uniformidad en toda la Unión; señala que, aunque contar con una diversidad de enfoques nacionales es una buena manera de establecer mejores prácticas, los desarrolladores y los investigadores de IA se enfrentarían a importantes obstáculos si estuviesen sujetos a diferentes parámetros operativos y obligaciones reglamentarias en cada uno de los veintisiete Estados miembros;

ii. Barreras comerciales

162.  Insta a la Comisión a que prosiga su labor de eliminación de las barreras injustificadas a la plena culminación del mercado único digital, incluida la discriminación indebida por país, el reconocimiento mutuo incompleto de cualificaciones profesionales, los procedimientos de acceso al mercado excesivamente gravosos, los elevados costes de cumplimiento de la normativa excesivamente elevados y las divergencias de los procedimientos de evaluación de la conformidad, así como a que aborde el frecuente uso de las excepciones, que da lugar a normas divergentes entre las distintas jurisdicciones de los Estados miembros; recalca que, para las empresas que operan en un entorno transfronterizo, la elaboración de normas en materia de IA a escala de la Unión, en lugar de un enfoque país por país fragmentado, constituye un avance positivo que ayudará a fomentar el liderazgo europeo en materia de desarrollo y de despliegue de la IA;

163.  Pide a la Comisión que acelere la creación de una Unión de los Mercados de Capitales real; recalca la necesidad de mejorar el acceso a los recursos financieros, especialmente para las pymes, las empresas emergentes y las empresas emergentes en expansión;

164.  Subraya la necesidad de concluir rápidamente las negociaciones sobre los expedientes legislativos pendientes destinados a la culminación del mercado único digital;

165.  Pide a la Comisión que garantice una aplicación coherente de las normas del mercado único;

166.  Observa que el nuevo marco legislativo debe actualizarse cuidadosamente y adaptarse a los productos y servicios digitales; propone que se haga hincapié en la modernización y la simplificación de los procedimientos de verificación de la conformidad mediante la introducción de alternativas digitales a los medios analógicos o en soporte papel existentes, lo que permitiría a las empresas utilizar, por ejemplo, el marcado CE digital, el etiquetado electrónico o instrucciones de seguridad en formato digital;

167.  Anima a la Comisión a que apoyen a las empresas fuera de línea que desean tener presencia en línea; alienta nuevas campañas de información dirigidas a las pymes y a las empresas emergentes en previsión de la nueva y futura legislación de la Unión a este respecto, así como una mayor aplicación de las normas de vigilancia del mercado como medio para aumentar la confianza de los consumidores europeos;

iii. Igualdad de condiciones

168.  Está convencido de que es necesario reformar los actuales marcos nacionales y europeos de competencia y antimonopolio para combatir mejor los abusos de poder de mercado y la colusión algorítmica en la economía digital, y los problemas relacionados con la acumulación de datos, así como para abordar mejor los riesgos de los nuevos monopolios emergentes sin poner en riesgo la innovación; acoge favorablemente la próxima aprobación de la Ley de Mercados Digitales; pide que se tengan especialmente en cuenta los posibles problemas de competencia en el ámbito de la IA;

169.  Observa que dicha reforma debe reforzar un enfoque empírico y tener más en cuenta el valor de los datos y las implicaciones de los efectos de red mediante la introducción de normas claras para las plataformas dominantes del mercado y el aumento de la seguridad jurídica para la cooperación en la economía digital;

170.  Afirma, a este respecto, que la Comisión debe adaptar sus prácticas de definición del mercado para definir los mercados con mayor precisión y de conformidad con las realidades del mercado moderno en el sector digital, para lo que debe llevar a cabo análisis dinámicos y adoptar una visión a largo plazo para evaluar la existencia de presiones competitivas;

171.  Pide a la Comisión y a las autoridades nacionales de competencia que aumenten sus esfuerzos para controlar los mercados digitales de forma continuada, e identificar así las restricciones competitivas y los cuellos de botella a la competencia, e imponer posteriormente medidas correctivas con mayor frecuencia a las empresas que abusen de su posición dominante o que adopten un comportamiento contrario a la competencia;

172.  Pide a los Estados miembros que aumenten sustancialmente la financiación y la capacidad técnica de las autoridades de competencia con el fin de garantizar la ejecución eficaz y rápida de normas de competencia en la compleja economía digital que cambia a gran velocidad; subraya que las autoridades de competencia deben acelerar los procedimientos por abuso y, cuando sea necesario, aplicar medidas provisionales con el fin de proteger y fomentar la competencia leal, garantizando al mismo tiempo los derechos de defensa procesal de las empresas;

c) Infraestructura verde digital

i. Conectividad y potencia informática

173.  Pide a la Comisión que prosiga con su ambición de incentivar al 75 % de las empresas europeas para que adopten servicios de computación en la nube, macrodatos y la IA de aquí a 2030, con el fin de mantener su competitividad a escala mundial y acelerar sus objetivos de neutralidad climática para garantizar que se cumplen a más tardar en 2050; considera insuficiente la asignación de 2 070 millones de euros para la financiación de infraestructuras digitales en el marco del Mecanismo «Conectar Europa»;

174.  Subraya que el cambio en el volumen y el procesamiento de datos para la IA también requiere el desarrollo y el despliegue de nuevas tecnologías de procesamiento de datos que abarquen las zonas próximas al usuario, pasando así de los modelos de infraestructura centralizados basados en la nube a la creciente descentralización de las capacidades de procesamiento de datos; insta a que se refuercen las inversiones y la investigación en agrupaciones informáticas distribuidas, nodos de proximidad e iniciativas de microcontroladores digitales; señala que el paso a un uso generalizado de soluciones periféricas puede requerir más recursos, ya que se pierden los beneficios de la puesta en común de la optimización, y subraya que el coste/beneficio medioambiental de las infraestructuras periféricas debe examinarse a nivel sistémico en una estrategia europea en la nube, también para optimizar el consumo de energía de la IA;

175.  Destaca que la IA requiere un hardware potente para que se puedan utilizar algoritmos sofisticados, incluida la computación de alto rendimiento y cuántica y el IdC; pide un aumento continuo de la financiación pública y privada específica para soluciones innovadoras que reduzcan el consumo de energía, incluido el diseño ecológico de software; pide la elaboración de normas sobre medición del uso de recursos por parte de la infraestructura digital a nivel de la Unión, basadas en las mejores prácticas; se muestra preocupado por la crisis mundial de los microprocesadores y acoge favorablemente, a este respecto, la propuesta de la Comisión de una Ley de Chips con el fin de reducir la actual dependencia de la Unión de proveedores externos; advierte, no obstante, de los riesgos futuros del exceso de capacidad en el mercado y recomienda que se estudie detenidamente el ciclo de inversión;

176.  Destaca que la infraestructura funcional y rápida para la IA debe basarse en una conectividad digital de alta velocidad justa y segura, lo que requiere el despliegue de la 5G en todas las zonas urbanas para 2030, así como un acceso amplio a redes de banda ancha ultrarrápida y una política del espectro con condiciones de licencia que garanticen la previsibilidad, fomenten las inversiones a largo plazo y no distorsionen la competencia; insta a los Estados miembros a que sigan aplicando la caja de herramientas para la 5G; pide que se ponga en práctica la Directiva de reducción de costes de la banda ancha (40) para facilitar el despliegue de la red; pide a la Comisión que lleve a cabo evaluaciones de impacto ambiental de la 5G; destaca la importancia de luchar contra la propagación de desinformación relacionada con las redes 5G con una estrategia de comunicación de la Unión; señala, a este respecto, que un debate amplio e inclusivo contribuirá en última instancia a generar confianza entre los ciudadanos en cuanto a las acciones encaminadas al desarrollo continuo de las redes móviles;

177.  Pide a la Comisión que establezca calendarios para los Estados miembros, las ciudades, las regiones y la industria, y que mejore los procesos de aprobación administrativa de la 5G; pide que, en las regiones en las que el despliegue sea realizado por el sector público, se pongan a disposición más fondos para llevar la conectividad de alta velocidad a comunidades remotas y contribuir a reducir la brecha digital; pide apoyo para los proyectos de banda ancha y conectividad en el marco financiero plurianual, con un acceso más fácil para las autoridades locales a fin de evitar la infrautilización de los fondos públicos;

178.  Pide a la Comisión que evalúe la interacción entre la IA y la próxima ola de infraestructuras digitales, permitiendo a Europa tomar la delantera en las redes de próxima generación, incluida la 6G;

179.  Pide una estrategia clara para el despliegue de la red de fibra óptica y la implantación de la banda ancha en las zonas rurales, que también es clave para las tecnologías que requieren muchos datos, como la IA; pide, a este respecto, un mayor apoyo al Banco Europeo de Inversiones a los proyectos de conectividad en las zonas rurales;

180.  Subraya que la importante inversión necesaria para el despliegue de la red y un despliegue rápido para lograr los ambiciosos objetivos establecidos por la Brújula Digital requerirá acuerdos de uso compartido de infraestructuras, que también son clave para promover la sostenibilidad y reducir el consumo de energía; recalca que estos esfuerzos se hallan en sus inicios y que es necesario seguir expandiéndolos;

ii. Sostenibilidad

181.  Insta a la Unión a que tome la iniciativa para que las infraestructuras digitales verdes sean neutras desde el punto de vista climático y eficientes desde el punto de vista energético para 2030 de conformidad con los objetivos del Acuerdo de París, y se integren en el programa político del Pacto Verde Europeo, también mediante la evaluación del impacto medioambiental de los despliegues a gran escala de sistemas basados en la IA, teniendo en cuenta el aumento de las necesidades energéticas del desarrollo y el uso de la IA; pide una acción multilateral mundial coordinada para utilizar la IA en la lucha contra el cambio climático y la degradación del medio ambiente y ecológica, así como la pérdida de biodiversidad;

182.  Insta al uso de la IA para controlar el consumo de energía en los municipios y desarrollar medidas de eficiencia energética;

183.  Reconoce la gran cantidad de datos y recursos que necesitan algunas aplicaciones de IA y sus impactos en el medio ambiente; recuerda que, para que la IA europea sea sostenible y respetuosa con el medio ambiente, se deben diseñar, desarrollar y desplegar sistemas de IA encaminados a lograr la neutralidad climática y una economía circular;

184.  Pide a la Comisión que incentive el uso de centros de datos eficientes desde el punto de vista energético que puedan apoyar la neutralidad en carbono;

185.  Recalca que la actual falta de intercambio de información de los centros de datos imposibilita adoptar una acción pública adecuada y tener una visión general comparativa del comportamiento medioambiental de los centros de datos; pide un aumento significativo del número de evaluaciones de impacto ambiental realizadas sobre el desarrollo de la IA; pide que se elaboren requisitos para garantizar que se dispone de pruebas adecuadas para medir la huella medioambiental de las aplicaciones de IA a gran escala; señala la necesidad de normas y directrices claras para las evaluaciones de impacto ambiental de la IA, incluidas evaluaciones del ciclo de vida con múltiples criterios; pide un acceso abierto a los indicadores clave de rendimiento de los centros de datos, la elaboración de normas de la Unión y la creación de etiquetas de la Unión de computación ecológica en la nube;

186.  Pide un plan de economía circular para las tecnologías digitales y la IA, y hace hincapié en que la Unión debe garantizar una cadena sólida de reciclado de las TIC;

187.  Recomienda fomentar el uso de soluciones basadas en IA, de conformidad con la doble transición ecológica y digital en todos los sectores, con el fin de coordinar normas sostenibles para las empresas y de facilitar la supervisión de la eficiencia energética y la recopilación de información sobre las emisiones y los ciclos de vida de los productos;

188.  Pide a la Comisión que ponga en marcha concursos y misiones para soluciones de IA que atajen problemas medioambientales específicos, y que refuerce este componente en Horizonte Europa y el programa Europa Digital; recuerda que los proyectos relacionados con el potencial de la IA para abordar los retos medioambientales deben llevarse a cabo sobre la base de la investigación y la innovación responsables y éticas;

189.  Pide a la Comisión que desarrolle criterios medioambientales y condicione la asignación de presupuesto, financiación y procedimientos de contratación pública de la Unión para la IA a su comportamiento medioambiental y su contribución al bien público;

190.  Pide a la Comisión que fomente las ciudades inteligentes, incluidos los edificios inteligentes, las redes inteligentes, los vehículos conectados, las plataformas de movilidad, los servicios públicos y la logística; apoya el desarrollo de una recopilación común de mejores prácticas para proyectos y aplicaciones; subraya que las ciudades inteligentes requieren una buena cooperación entre los gobiernos estatales y locales, así como entre sus agencias y entidades privadas;

191.  Recalca la necesidad de definir principios para garantizar que puedan integrarse los datos climáticos y de sostenibilidad pertinentes al crear nuevos espacios de datos sobre sostenibilidad;

192.  Pide a la Comisión que coopere con los Estados miembros y el sector privado a la hora de crear y apoyar instalaciones de ensayo en que se puedan probar aplicaciones de IA por lo que respecta a su desempeño en materia de sostenibilidad, y que ofrezca orientaciones sobre cómo mejorar la huella medioambiental de estas aplicaciones; insta a que se adapten de las instalaciones de ensayo existentes para que se centren en casos de uso en la producción circular;

193.  Pide a la Comisión que promueva las infraestructuras de transporte sostenibles que utilicen IA con el fin de reducir la contaminación y fomentar la adaptabilidad a las necesidades de los usuarios;

d) Ecosistema de excelencia

i. Talento

194.  Pide a la Comisión que cree un marco de capacidades en materia de IA para los ciudadanos, basado en el marco de competencias digitales, para brindar a los ciudadanos, los trabajadores y las empresas oportunidades de formación y aprendizaje pertinentes en materia de IA y mejorar el intercambio de conocimientos y mejores prácticas, así como la alfabetización en materia de medios de comunicación y de datos tanto a escala de la Unión como nacional; pide a la Comisión que avance rápidamente en la creación de dicho marco de competencias basándose en los sistemas educativos existentes en materia de IA; recomienda la creación de espacio europeo de datos sobre las capacidades de IA que apoye la formación europea en materia de capacidades a escala sectorial y regional en todos los Estados miembros; recalca que la adquisición y la enseñanza de capacidades digitales y de IA deben resultar accesibles para todas las personas, en particular las mujeres y los grupos vulnerables; insta a la Comisión y a los Estados miembros a que apoyen los cursos gratuitos en línea que mejoran la formación básica en IA;

195.  Insta a que se invierta en investigación para entender mejor las tendencias estructurales relacionadas con la IA en el mercado laboral, incluidas las capacidades para las que existe una mayor demanda o las que pueden escasear en el futuro, con el fin de tener esto en cuenta en los planes de transición de los trabajadores;

196.  Constata con preocupación la falta de medidas dirigidas y sistemáticas en la formación profesional de adultos; pide a la Comisión y a los Estados miembros que desarrollen políticas que incluyan una inversión adecuada en el reciclaje profesional y la mejora de las capacidades de la mano de obra, incluida la transmisión de información a los ciudadanos sobre el funcionamiento de los algoritmos y su impacto en la vida cotidiana; pide que se preste especial atención a quienes hayan perdido su empleo o corran el riesgo de perderlo debido a la transición digital, con el objetivo de prepararlos para trabajar con tecnologías relacionadas con la IA y las TIC; pide a la Comisión que incentive las alianzas multilaterales en materia de capacidades e invierta en ellas para poner a prueba las mejores prácticas; recomienda realizar un seguimiento de la creación de empleos de calidad vinculados con la IA en la Unión;

197.  Destaca que las brechas digitales existentes solo se pueden reducir con medidas específicas e inclusivas tanto para mujeres como para personas de edad avanzada y pide, por tanto, inversiones sustanciales en medidas educativas y de mejora de capacidades específicas a fin de reducir dichas brechas digitales; pide a la Comisión y a los Estados miembros que fomenten una cultura y unas condiciones de trabajo igualitarias entre hombres y mujeres a este respecto;

198.  Pide a la Comisión que promueva la igualdad de género en las empresas que trabajan en actividades relacionadas con la IA y las TIC, también a través de la financiación de proyectos dirigidos por mujeres en el sector digital y la promoción de la participación de un número mínimo de investigadoras en proyectos relacionados con la IA y las TIC;

199.  Recalca la necesidad de abordar la escasez de talento garantizando el crecimiento, la atracción y la retención de los mejores talentos; insta a la Comisión a que persevere en su objetivo de tener 20 000 000 de especialistas en TIC empleados en la Unión; hace hincapié en que, con el fin de retener los mejores talentos en el ámbito de la IA y de evitar la fuga de cerebros, la Unión debe permitir unos salarios competitivos, unas mejores condiciones de trabajo, la cooperación transfronteriza y una infraestructura competitiva;

200.  Hace hincapié en el valor añadido de contar con un marco de la Unión simplificado y racionalizado para atraer talento internacional del sector tecnológico, con el fin de permitir el flujo de talento y la movilidad dentro de la Unión y desde el extranjero, de mejorar al acceso del talento internacional al mercado laboral de la Unión y de atraer trabajadores y estudiantes bajo demanda; recalca que se necesitan nuevas herramientas y legislación innovadoras para ayudar a poner en contacto a los empleadores con posibles trabajadores de TIC, abordar las carencias del mercado laboral y facilitar el reconocimiento de cualificaciones internacionales y capacidades; recomienda crear una plataforma de reserva de talento y de conexión de la Unión que sirva como ventanilla única para el talento internacional que desee solicitar empleo en la Unión, así como para los empleadores que busquen potenciales empleados en el extranjero; pide a la Comisión que amplíe el ámbito de aplicación de la tarjeta azul de la Unión para garantizar que Europa sigue abierta al talento mundial;

201.  Pide a la Comisión que aborde el aumento de la demanda de trabajo a distancia a través de las fronteras de los Estados miembros para permitir a los empleados de la Unión e internacionales trabajar a distancia en un Estado miembro distinto de aquel en el que residen; recomienda, en este contexto, que se lleve a cabo una revisión exhaustiva de las trabas legislativas y de otro tipo al trabajo a distancia, y que estas se aborden en propuestas legislativas posteriores;

202.  Hace hincapié en la necesidad de reforzar la cohesión de la innovación entre las regiones y los Estados miembros de la Unión, ya que el talento puede estar distribuido de manera desigual;

203.  Pide a la Comisión y a los Estados miembros que garanticen la protección adecuada de los derechos y el bienestar de los trabajadores, como la no discriminación, la intimidad, la autonomía y la dignidad humana en el uso de la IA y en la gestión algorítmica, también con respecto a las prácticas de vigilancia indebida; subraya que, a la hora de utilizar la IA en el trabajo, los empleadores deben ser transparentes en cuanto a la forma en que se utiliza y a su influencia en las condiciones laborales, y destaca que los trabajadores deben ser siempre informados y consultados antes de utilizar dispositivos y prácticas basados en la IA; destaca que los algoritmos siempre deben estar sujetos a la supervisión humana y que sus decisiones deben ser responsables, impugnables y, si procede, reversibles; cree que se debe impulsar la formación de los desarrolladores de algoritmos en cuestiones relativas a la ética, la transparencia y la no discriminación;

204.  Pide una estrategia europea para un uso seguro de la IA en lo que respecta a los niños, que esté diseñada para informar a los niños acerca de la interacción con la IA con el fin de protegerlos de los riesgos y los posibles daños;

205.  Pide a los Estados miembros que hagan de las capacidades y la alfabetización digitales un componente de la educación básica y el aprendizaje permanente; pide un sistema educativo en materia de IA de alto rendimiento que fomente la alfabetización, las capacidades y la resiliencia digitales desde una edad temprana, comenzando en la educación primaria; hace hincapié en que el desarrollo de planes de estudios eficaces para la educación digital requiere voluntad política, recursos suficientes e investigación científica; pide a la Comisión que promueva la introducción de cursos de competencias computacionales y de IA en todas las escuelas, universidades e instituciones educativas europeas; recalca que dicho desarrollo de capacidades es necesario en la misma medida en la educación de adultos que en la educación primaria y secundaria; solicita una iniciativa política global y coherente de la Comisión y de los Estados miembros sobre las capacidades y la educación en materia de IA a escala de la Unión, así como una iniciativa legislativa sobre la IA en el lugar de trabajo;

206.  Llama la atención sobre la necesidad de programas universitarios multidisciplinarios que se centren en las capacidades digitales y de IA, también en materia de salud, y de centros de investigación interdisciplinarios; cree que también se debe poner énfasis en itinerarios hacia la educación superior para especializarse en la IA (por ejemplo, másteres y doctorados y estudios a tiempo parcial);

207.  Pide a los Estados miembros que prioricen el desarrollo de métodos de enseñanza y planes de estudios innovadores en los ámbitos de las CTIM y la programación, en particular para reforzar la calidad de las matemáticas y el análisis estadístico con el fin de comprender los algoritmos de IA; pide a la Comisión y a los Estados miembros que promuevan las disciplinas académicas de CTIM para aumentar el número de estudiantes en estos ámbitos; destaca que otras disciplinas que interactúan con las disciplinas de CTIM también serán fundamental para promover las capacidades digitales;

208.  Anima a los Estados miembros a promover la participación de las mujeres en estudios y actividades profesionales relacionados con los ámbitos de las CTIM, las TIC y la IA en aras de la igualdad de género, también mediante la definición de un objetivo para la participación de las mujeres investigadoras en proyectos relacionados con las CTIM y la IA;

209.  Resalta que la educación digital también debe sensibilizar sobre los elementos de la vida cotidiana que podrían verse afectados por el aprendizaje automático, incluidos los motores de recomendación, la publicidad dirigida, los algoritmos de las redes sociales y las ultrafalsificaciones; destaca que la resiliencia digital requiere una educación adicional sobre los medios de comunicación para ayudar a contextualizar nuevas capacidades digitales y de IA, por lo que pide apoyo y respaldo para los cursos nuevos y ya existentes de accesibles de alfabetización en materia de IA para todos los ciudadanos;

210.  Pide medidas para garantizar que todas las instalaciones educativas cuenten con acceso a la banda ancha, así como con una sólida infraestructura de aprendizaje digital; subraya la necesidad de dotar a las universidades europeas y a sus redes de los recursos informáticos adecuados necesarios para formar modelos de IA, que son cada vez más caros; recalca la necesidad de garantizar que los profesores tengan las capacidades y las herramientas de IA necesarias; pide una mayor atención a la formación técnica para los profesores y el desarrollo de herramientas de enseñanza y de aprendizaje innovadoras;

211.  Pide inversiones en iniciativas de capacidades de codificación para jóvenes para fomentar capacidades y cualificaciones de alto nivel en el ámbito de la IA de los jóvenes, incluidas academias de codificación, programas de escuelas de verano y becas específicas para la IA; opina que se deben seguir expandiendo las prácticas «Oportunidad Digital» de la Unión a la formación profesional;

ii. Investigación

212.  Pide que la Unión aumente la inversión en investigación en IA y otras tecnologías clave, como la robótica, la computación cuántica, la microelectrónica, el IdC, la nanotecnología y la impresión 3D; pide a la Comisión que desarrolle y mantenga una hoja de ruta de investigación estratégica europea para la IA que trate los principales retos interdisciplinarios en los que la IA puede ser parte de la solución; subraya que las inversiones deben dirigirse a casos de uso que probablemente aumenten las soluciones sostenibles y el bienestar, y la inclusión en la sociedad;

213.  Anima a todos los Estados miembros a destinar una parte mayor de su PIB a la investigación sobre tecnologías digitales; insta a que se siga reforzando el programa Horizonte Europa, en particular su asociación para la IA, los datos y la robótica y el Consejo Europeo de Innovación; insta a que se amplíe el programa Europa Digital y considera que debe incrementarse la financiación asignada de 7 600 millones de euros;

214.  Recalca la necesidad de priorizar la investigación a escala de la Unión en el ámbito de la IA; pide a la Comisión que simplifique la estructura de la financiación de la investigación, incluidos los requisitos y los procesos para la solicitud de becas; subraya la necesidad de mejorar la calidad y la coherencia de las revisiones de las propuestas y de aumentar la previsibilidad de los instrumentos de financiación y su calendario para apoyar la planificación a largo plazo, utilizando la hoja de ruta europea de la investigación en IA; pide a la Comisión que financie más aplicaciones en el ámbito de la IA combinando diferentes instrumentos, como el Consejo Europeo de Investigación, las acciones Marie Skłodowska-Curie, el Consejo Europeo de Innovación y el Instituto Europeo de Innovación y Tecnología;

215.  Pide a la Comisión y a los Estados miembros que den prioridad a la financiación de la investigación en IA que se centre en una IA sostenible y socialmente responsable, contribuyendo así a encontrar soluciones que protejan y fomenten los derechos fundamentales, y que no financien programas que supongan un riesgo inaceptable para estos derechos, lo que abarca la financiación de sistemas de vigilancia masiva, sistemas de puntuación social y otros sistemas que puedan tener efectos sociales negativos, así como las tecnologías que contribuyan al daño medioambiental;

216.  Anima a que se creen más puestos docentes en materia de IA en las universidades europeas, así como que se establezcan salarios adecuados para la investigación en IA y se proporcionen más fondos públicos para formar y retener adecuadamente a la generación actual y próxima de investigadores y talento y evitar la fuga de cerebros; destaca la necesidad de reducir los obstáculos burocráticos a los que se enfrentan los investigadores universitarios para acceder fácilmente a los fondos y pide a la Comisión que proporcione herramientas para aumentar la interconectividad digital entre universidades dentro de los Estados miembros y entre ellos; insta al desarrollo de redes transversales para la IA en todas las universidades e instituciones de investigación europeas y el sector privado, así como a centros de investigación multidisciplinarios específicos de la IA;

217.  Recomienda que las universidades refuercen la financiación de proyectos de investigación aplicada en los que se tengan en cuenta las dimensiones de la IA;

218.  Pide a la Comisión que mejore la transferencia de conocimientos entre el ámbito de la investigación sobre la IA y la sociedad mediante la creación de redes empresariales y puntos de contacto con profesionales del Derecho y asesores empresariales en la universidad, así como de paneles de ciudadanos y plataformas de ciencia y sociedad, y mediante la implicación del público en la elaboración de los programas de investigación sobre la IA; subraya la importancia de que exista una transición fluida del mundo académico a la industria y el valor añadido de la proximidad entre ambos ámbitos para que los ecosistemas y los centros industriales de la IA tengan éxito y sean dinámicos;

219.  Subraya que, en la Unión, es necesario acelerar las transferencias de conocimientos de la investigación y la ciencia a las aplicaciones de la IA en la industria y el sector público; celebra la creación de una asociación público-privada específica para la IA; pide a la Comisión que cree centros europeos de datos de IA, desarrollados conjuntamente con la industria y la sociedad civil; destaca la importancia de los centros de ensayo para la IA; se refiere en concreto a la Empresa Común de Informática de Alto Rendimiento, la Empresa Común para las Tecnologías Digitales Clave y la Empresa Común para las Redes y los Sistemas Inteligentes;

220.  Pide la creación de centros de referencia para la IA en el marco de Horizonte Europa, que se basen en las redes existentes y futuras de centros regionales de excelencia de IA, con el objetivo de forjar una alianza de organizaciones de investigación europeas fuertes que compartan una hoja de ruta común para apoyar la excelencia de la investigación básica y aplicada, armonizar los esfuerzos nacionales en materia de IA, fomentar la innovación y las inversiones, atraer y retener el talento del ámbito de la IA en Europa, y crear sinergias y economías de escala; considera que el concepto de los centros de referencia para la IA puede atraer a los mejores y más brillantes cerebros del extranjero, así como una importante inversión privada a Europa;

221.  Añade que se debe proporcionar financiación suficiente para los centros de referencia para la IA, en cooperación con otras instituciones de investigación y la industria; destaca los beneficios de unos entornos de pruebas reglamentarios bien delimitados para probar productos, servicios y enfoques de la IA en un entorno real controlado antes de introducirlos en el mercado;

222.  Señala que la designación de los centros europeos de innovación digital en el marco del programa Europa Digital es otro paso importante en la creación de un ecosistema de excelencia de la IA basado en agrupaciones universidad-empresa; critica, sin embargo, que los criterios para su designación sigan siendo ambiguos y que esto haga que difieran en cuanto a sus capacidades y desarrollo, y que no esté clara la interrelación con otros centros digitales designados por el Instituto Europeo de Innovación y Tecnología y los designados en el marco del Horizonte Europa; sugiere, en consecuencia, que se necesitan más coordinación y esfuerzos presupuestarios, así como la creación de una agrupación general de cooperación de centros descentralizados de IA basada en un marco de conocimientos jurídicos especializados, datos, financiación e incentivos a escala de la Unión; celebra las iniciativas de la Comisión para establecer redes de empresas emergentes en toda la Unión y fuera de ella, como Startup Europe y Startup Europe Mediterranean, con el fin de promover las oportunidades de intercambios de ideas, negocios y creación de redes;

223.  Propone que se amplíen y se armonicen las iniciativas existentes, como el Laboratorio europeo de aprendizaje y sistemas inteligentes y la Confederación de laboratorios para la investigación sobre inteligencia artificial en Europa, y proyectos emblemáticos, como HumanE-AI-Net y AI4EU, con el fin de promover objetivos y proyectos de investigación y desarrollo ambiciosos, colaborativos y a escala de la Unión;

e) Ecosistema de confianza

i. La sociedad y la IA

224.  Propone que, en el marco la formación propuesta en materia de IA, la Unión y sus Estados miembros creen campañas de concienciación, que incluyan debates públicos a nivel local, como medio adicional para llegar a los ciudadanos, informarlos y capacitarlos para que comprendan mejor las oportunidades, los riesgos y las repercusiones sociales, jurídicas y éticas de la IA, a fin de seguir contribuyendo a la fiabilidad y la democratización de la IA; expresa su convencimiento de que esto, junto con la creación de un marco jurídico claro y sólido sobre la IA fiable centrada en el ser humano, contribuiría a reducir las preocupaciones de los ciudadanos que pudieran asociarse al uso generalizado de la IA en Europa;

225.  Pide a la Unión que garantice que el desarrollo, el despliegue y el uso de la IA respeten plenamente los principios democráticos y los derechos fundamentales y cumplan el Derecho de manera que puedan combatir los mecanismos de vigilancia y no interfieran indebidamente en las elecciones ni contribuyan a la difusión de desinformación;

226.  Destaca que los gobiernos y las empresas solo deben desplegar y adquirir sistemas de IA fiables que estén diseñados, cuando proceda, para defender los derechos de los trabajadores y promover una educación de calidad y la alfabetización digital, y que no aumenten la brecha de género o la discriminación al impedir la igualdad de oportunidades para todos;

227.  Apoya la modificación de las leyes de protección de los consumidores como otra forma de generar confianza en la IA, por ejemplo, otorgando a los consumidores el derecho a saber si están interactuando con un agente de IA, lo que les permitiría solicitar la revisión humana de las decisiones de la IA, y dándoles medios para combatir la vigilancia comercial o la fijación de precios personalizada;

228.  Subraya que la introducción de determinadas tecnologías de IA en el lugar de trabajo, como las que utilizan los datos de los trabajadores, debe realizarse en consulta con los representantes de los trabajadores y los interlocutores sociales; señala que los trabajadores y sus representantes deben poder solicitar a los empleadores información sobre los datos que se recogen, el lugar en que se almacenan, la forma en que se tratan y las salvaguardias que existen para protegerlos;

229.  Pide a la Unión que garantice que los sistemas de IA reflejen su diversidad cultural y su multilingüismo para evitar los prejuicios y la discriminación; destaca que, para hacer frente al sesgo en los sistemas de IA, es necesario promover la diversidad en los equipos que desarrollan y aplican las aplicaciones específicas de la IA y evalúan sus riesgos; subraya la necesidad de que se utilicen datos desglosados por género para evaluar los algoritmos de IA y de que el análisis de género forme parte de todas las evaluaciones de riesgo de la IA;

230.  Subraya la importancia de una investigación y un seguimiento continuos de los efectos de la IA en diversos aspectos de la sociedad, tanto a escala nacional como de la Unión; propone que Eurostat y otras agencias de la Unión participen en estas actividades;

231.  Destaca que, sobre la base de los resultados del sistema de seguimiento, podría considerarse la posibilidad de crear un fondo europeo de transición para ayudar a gestionar, por ejemplo, la pérdida de puestos de trabajo en sectores vulnerables o en todas las regiones;

ii. Administración electrónica

232.  Pide a los Estados miembros que cumplan la Declaración de Tallin sobre la administración electrónica y establezcan mecanismos para prestar servicios públicos digitales sin fronteras, interoperables, personalizados, fáciles de usar y de extremo a extremo, basados en la IA, a todos los ciudadanos en todos los niveles de la administración pública; opina que el objetivo debe ser establecer el número de personas que utilizan los servicios de administración electrónica basados en la IA en los próximos cinco años, aunque se debe seguir manteniendo la interacción humana; recuerda que los fondos del Mecanismo de Recuperación y Resiliencia y los planes nacionales de recuperación y resiliencia desempeñarán un papel clave a este respecto; pide a los organismos públicos que apoyen y desarrollen la IA en el sector público; acoge con satisfacción la revisión del Reglamento eIDAS (41) y su papel en el impulso de la prestación de servicios públicos digitales; subraya que no se debe dejar a nadie atrás y que se deben seguir ofreciendo alternativas fuera de línea;

233.  Pide a la Comisión que renueve el plan de acción sobre administración electrónica y cree sinergias con el programa Europa Digital para apoyar a las administraciones públicas en la adopción de la IA en consonancia con la estrategia europea de software de código abierto;

234.  Destaca que la administración electrónica desempeña un papel importante en el desarrollo de la economía de los datos y la innovación digital en el mercado único digital; señala que la colaboración y el intercambio de buenas prácticas en todas las administraciones públicas y de manera transfronteriza son vitales para la implantación de la administración electrónica en toda la Unión; pide que se normalicen y simplifiquen los procedimientos de la administración pública para lograr intercambios más eficientes entre los Estados miembros de la Unión y todos los niveles de la administración;

235.  Señala que se necesitan expertos cualificados para el desarrollo de servicios en línea de alta calidad; subraya la necesidad de aumentar las políticas de contratación y formación de los gobiernos para las personas con capacidades digitales y con conocimiento de la IA;

236.  Pide que se acelere la puesta en marcha de la pasarela digital única y que se promueva el desarrollo de plataformas interoperables que ofrezcan servicios transfronterizos en la Unión, al mismo tiempo que se cumplen las normas de seguridad comunes en todos los Estados miembros; recalca que se debe considerar la posible ampliación del conjunto limitado de servicios actualmente incluido en el Reglamento (UE) 2018/1724 (42) relativo a la creación de una pasarela digital única;

237.  Insta a que las plataformas de consulta pública de las instituciones de la Unión y de los Estados miembros aumenten la participación y el acceso a la información digital; recomienda invertir en mejoras para la facilidad de uso y la accesibilidad, por ejemplo, mediante la publicación de resúmenes e información en varias lenguas, así como en la comercialización y las acciones de divulgación específicas para las plataformas digitales de participación pública;

238.  Recomienda intensificar los diálogos interactivos y personales con los ciudadanos de la Unión mediante consultas en línea con los ciudadanos, foros de diálogo con las partes interesadas o funcionalidades digitales para comentar la legislación y las iniciativas de la Unión;

iii. Sanidad electrónica

239.  Pide un diseño centrado en el ser humano y un enfoque empírico para la IA en el ámbito de la salud que se centre en una asistencia sanitaria personalizada, centrada en el paciente, rentable y de gran calidad, desarrollada en estrecha cooperación con los profesionales de la salud y los pacientes, manteniendo la intervención humana en la supervisión y la toma de decisiones; insta a priorizar la financiación, a establecer objetivos estratégicos, a fomentar la cooperación y a adoptar las aplicaciones de la IA en el sector de la saludo, ya que se trata de un sector crítico en el que las oportunidades que ofrece la IA pueden aportar enormes beneficios a la salud y el bienestar de los ciudadanos, siempre y cuando los riesgos inherentes se gestionen de forma adecuada;

240.  Destaca que la adopción de la IA en los entornos sanitarios debe promoverse como una herramienta para ayudar a los profesionales sanitarios y reducir su carga, permitiéndoles así centrarse en sus tareas clínicas, y no como un sustituto de los profesionales sanitarios o como un agente independiente dentro de los sistemas sanitarios; subraya la necesidad de garantizar un nivel de calidad, seguridad y protección en pie de igualdad con los procesos de aprobación reglamentaria de los medicamentos, las vacunas y los productos sanitarios; pide que se establezca un método similar al de los ensayos clínicos para comprobar la idoneidad y supervisar el despliegue de la IA en entornos clínicos; considera que sería beneficioso evaluar qué servicios sanitarios pueden ser automatizados de forma ética y responsable;

241.  Considera que la igualdad de acceso a la asistencia sanitaria como principio debe extenderse a las aplicaciones de la IA relacionadas con la salud, incluidos los sistemas para la detección de enfermedades, la gestión de afecciones crónicas, la prestación de servicios sanitarios y el descubrimiento de fármacos; hace hincapié en la necesidad de adoptar medidas adecuadas para hacer frente a los riesgos para la salud relacionados con la brecha digital, el sesgo algorítmico, la discriminación y la marginación de las personas vulnerables o las minorías culturales, que tienen un acceso limitado a la asistencia sanitaria;

242.  Recuerda la posición del Parlamento de que no se debe permitir que las compañías de seguros o cualquier otro proveedor de servicios con derecho a acceder a la información almacenada en las aplicaciones de sanidad electrónica utilicen esos datos con el fin de discriminar en la fijación de precios;

243.  Expresa su convencimiento de que los proyectos e iniciativas actuales de la Unión, como el programa UEproSalud, los espacios europeos de datos sanitarios y la Plataforma Europea para el Registro de Enfermedades Raras, son pasos en la dirección correcta, ya que permiten a los Estados miembros poner en común los recursos, aumentar la cooperación beneficiosa entre los sistemas sanitarios y permitir el intercambio seguro y protegido de datos de alta calidad para la investigación y la innovación;

244.  Pide el anclaje jurídico y el posicionamiento adecuados de un marco para la IA en la sanidad a escala de la Unión; subraya que muchos niveles de riesgo van evolucionando a medida que pasa el tiempo por medio de los avances de las tecnologías de IA;

245.  Destaca la necesidad de una mayor orientación sobre el tratamiento de los datos sanitarios en virtud del RGPD, con el fin de aprovechar todo el potencial de la IA en beneficio de las personas, respetando al mismo tiempo los derechos fundamentales; pide a la Comisión una armonización más rápida y adecuada de las normas que rigen el tratamiento, incluido el intercambio, el anonimato y la interoperabilidad de los datos sanitarios en todos los Estados miembros;

246.  Pide a la Comisión que promueva la integración de normas éticas en todas las fases del desarrollo, el diseño y el uso de las aplicaciones de IA; subraya la necesidad de promover una mayor investigación sobre los métodos y los sesgos integrados en un sistema de IA entrenado, a fin de evitar conclusiones poco éticas y discriminatorias cuando se aplique a datos de salud humana; recomienda la creación de un código de conducta europeo para el tratamiento de datos sanitarios en plena conformidad con el RGPD;

247.  Pide a la Comisión que estudie la posibilidad de presentar una iniciativa relativa a los neuroderechos, con el objetivo de proteger el cerebro humano contra la injerencia, la manipulación y el control por parte de la neurotecnología impulsada por la IA; anima a la Comisión a que defienda una agenda de neuroderechos a nivel de las Naciones Unidas con el fin de incluir estos derechos en la Declaración Universal de Derechos Humanos, concretamente en lo que respecta a los derechos a la identidad, al libre albedrío, a la privacidad mental, a la igualdad de acceso a los avances en materia de aumento del cerebro y a la protección frente al sesgo algorítmico;

248.  Pide a la Comisión que estudie la posibilidad de establecer un marco jurídico para las consultas médicas en línea;

249.  Destaca la necesidad de adoptar medidas que promuevan la igualdad de acceso a la asistencia sanitaria y mejoren la adopción de soluciones de IA por parte de los proveedores de asistencia sanitaria;

250.  Pide a la Comisión que apoye la creación de un mecanismo de cooperación en este contexto y el funcionamiento de un espacio europeo de datos sanitarios para fomentar la puesta en común de los datos sanitarios y apoyar el desarrollo de los historiales médicos electrónicos de conformidad con las disposiciones legales y reglamentarias aplicables; insta a que se mejore la calidad de los datos disponibles para cada ciudadano de la Unión permitiendo que las herramientas digitales funcionen correctamente (por ejemplo, sobre la base de algoritmos de autoaprendizaje o análisis de macrodatos); recomienda que los datos almacenados de conformidad con el RGPD estén disponibles para investigaciones posteriores, así como para el desarrollo de nuevos fármacos y tratamientos individualizados;

251.  Subraya que la formación de los profesionales de la salud debe incluir competencias digitales y de IA, así como conocimientos sobre la legislación de la Unión en materia de protección de datos y el tratamiento de datos sensibles, incluida la promoción de la anonimización de los datos;

252.  Pide que se formulen orientaciones sobre la aplicabilidad de los marcos de responsabilidad y los regímenes de aprobación armonizados para las aplicaciones médicas basadas en la IA y los medicamentos desarrollados o probados mediante el uso de la IA y el aprendizaje automático; recalca que los daños resultantes de una asignación insuficiente de recursos o de la falta de oferta asistencial por medio de sistemas de recomendación de IA en el sector de la atención sanitaria deben abordarse en cualquier futura reforma reglamentaria; destaca que es necesario establecer mejores prácticas, normas y criterios apropiados para certificar y aprobar las aplicaciones sanitarias en función de los riesgos de responsabilidad que conlleven;

253.  Pide a la Comisión que proporcione y utilice modelos predictivos centrados en las personas para las pandemias, que incluyan la recopilación de diversos conjuntos de datos en tiempo real para fundamentar la toma de decisiones;

f) Estrategia industrial

i. Planificación estratégica e inversiones

254.  Está convencido de que la Unión debería situar la IA y la economía de los datos en el centro de una ambiciosa estrategia industrial, con el objetivo de capacitar a las empresas y los empresarios innovadores para que compitan por las mejores innovaciones tecnológicas y de modelos de negocio en Europa y en el mundo y para reforzar la autonomía estratégica abierta de la Unión, estableciendo al mismo tiempo normas jurídicas, éticas, tecnológicas y de seguridad sólidas para todos los sistemas y componentes de la IA destinados a ser utilizados en el mercado único de la Unión;

255.  Anima a la Comisión a que utilice el análisis de macrodatos basado en la IA para ayudar a realizar pruebas de resistencia para evaluar la resiliencia de las cadenas de valor y cartografiar las dependencias;

256.  Insta a la Comisión a que lleve a cabo un análisis exhaustivo de fortalezas y debilidades para determinar las vulnerabilidades de la Unión, identificar los ámbitos críticos y las dependencias de alto riesgo, establecer expectativas técnicas y económicas realistas con respecto a la IA y evaluar los efectos en todos los sectores de la industria europea; subraya que, con este fin, la Comisión debe cooperar con las partes interesadas pertinentes;

257.  Sugiere que la Unión debería, sobre la base de este análisis, formular y adoptar una estrategia industrial a largo plazo para la IA, con una visión clara para los próximos diez años como ampliación de la Brújula Digital; explica que esta estrategia debe complementarse con un sistema de seguimiento con indicadores clave de rendimiento y actualizaciones anuales; subraya, no obstante, la necesidad de consolidar y racionalizar el gran número de iniciativas individuales que ha puesto en marcha la Comisión para apoyar a la industria de la IA en la Unión, para luego incorporarlas a esta nueva estrategia industrial para la IA;

258.  Pide a la Comisión que estudie la forma de complementar la estrategia industrial global por medio de inversiones públicas específicas; señala, no obstante, que los programas de inversión excesiva y no dirigida para tecnologías complejas pueden, en algunos casos, distorsionar la asignación eficiente del capital y dar lugar a inversiones bloqueadas; destaca, en este contexto, que capacitar a las empresas, los emprendedores y los investigadores para desarrollar y comercializar soluciones tecnológicas de IA basadas en empresas privadas es una parte fundamental de la estrategia industrial de la Unión, en particular a través de la aplicación de unas condiciones de competencia equitativas y la culminación del mercado único digital y de la unión de los mercados de capitales; sugiere que se facilite el acceso a la financiación, especialmente a los instrumentos de financiación de riesgo, en particular para la financiación en fases iniciales; opina que el porcentaje de recursos dedicados a la IA en el marco de InvestEU y del programa Europa Digital debe revisarse y, en su caso, aumentarse significativamente;

259.  Destaca la necesidad de aplicar rápidamente el marco de la Unión recientemente adoptado para el control de las inversiones extranjeras directas (43) y el Reglamento recientemente revisado sobre el régimen de la Unión de control de las exportaciones de productos de doble uso (44); afirma que la IA, así como la robótica y otras infraestructuras digitales, deben considerarse un sector crítico; señala que la protección de los derechos de propiedad intelectual y la salida de tecnologías críticas deben ser objeto de una aplicación más estricta;

260.  Subraya que es crucial que Europa se dote de una infraestructura digital adecuada; acoge con satisfacción iniciativas como la iniciativa europea en materia de procesadores, la recientemente propuesta Ley de Chips y la Empresa Común de Informática de Alto Rendimiento Europea;

ii. Las pymes y las empresas emergentes

261.  Propone que se preste apoyo a escala gubernamental y de la Unión a las empresas emergentes de IA por medio del acceso a capital privado y a trabajadores cualificados, la capacidad de obtener conjuntos de datos de alta calidad para entrenar a los algoritmos y la capacidad de expandirse a través de las fronteras de los Estados miembros; subraya, además, que un instrumento de política pública muy eficaz para apoyar la economía de las empresas emergentes es la aplicación efectiva de la legislación en materia de competencia para evitar los abusos del poder dominante en el mercado y contrarrestar los obstáculos a la entrada en este; subraya, en este sentido, que la Unión debe ampliar sus esfuerzos para ofrecer a las pymes y a las empresas emergentes vías y servicios de desarrollo; opina que esto también podría incluir la introducción de un sistema de facilitadores que ponga en contacto a empresas orientadas a la IA con experiencia con empresas más pequeñas que deseen aplicar la tecnología; pone de relieve que la imposibilidad de las empresas emergentes y los empresarios de costearse equipos jurídicos de gran tamaño a menudo supone una barrera para la entrada en entornos normativos complejos; subraya la necesidad de que las pymes tengan acceso a apoyo jurídico y técnico específico; subraya, asimismo, la necesidad de fomentar asociaciones en las que puedan cooperar las empresas impulsadas por la IA y las que se incorporan al mercado; insta a la Comisión y a los Estados miembros a que proporcionen un mejor asesoramiento y un apoyo más concreto a través de redes, centros digitales, formadores en materia de IA, tutoría empresarial, visitas in situ y consultorios jurídicos; subraya la importancia de los programas de intercambio interpersonal, como Erasmus para Jóvenes Emprendedores, y señala que estos programas deben desarrollarse y fomentarse en mayor medida;

262.  Propone aliviar la carga administrativa para las pymes y las empresas emergentes en el ámbito de la IA, por ejemplo, racionalizando las obligaciones de notificación, información o documentación, y proporcionando orientaciones sobre las normas comunes de Derecho civil procesal que deben adoptarse a escala nacional; pide la rápida aplicación de la pasarela digital única para establecer un portal en línea único de la Unión en diferentes lenguas que contenga todos los procedimientos y trámites necesarios para operar en otro país de la Unión; destaca que todas las ventanillas únicas establecidas a nivel nacional deben ser fácilmente accesibles a través de la pasarela digital única y deben proporcionar información y ofrecer servicios administrativos en los Estados miembros, en particular en lo que respecta a las normas sobre el IVA y la información sobre los requisitos para la prestación de servicios, utilizando una terminología accesible y con plena disponibilidad, con personal de asistencia formado que proporcione un apoyo eficaz y fácil de usar;

263.  Señala que entre las posibles formas en las que los Estados miembros de la Unión pueden apoyar a las pymes y a las empresas emergentes figuran las siguientes: desgravaciones fiscales para la investigación exhaustiva, un mejor acceso a las capacidades informáticas y a conjuntos de datos de alta calidad y apoyo a la exploración tecnológica y a la educación, la formación y el reciclaje profesional en materia de IA para los empleados;

264.  Subraya que las pymes y las empresas emergentes en el ámbito de la IA necesitan un mejor acceso a la contratación pública; insta a la Comisión a que rediseñe los procedimientos de solicitud para las licitaciones públicas y la financiación de programas de la Unión para que las empresas emergentes y las pymes tengan una oportunidad justa de obtener proyectos de contratación pública y subvenciones de investigación y desarrollo; recuerda, en este sentido, los exitosos programas GovTech que han apoyado la participación de las pequeñas empresas en la contratación pública digital; pone de relieve que también deben fomentarse los sistemas de opciones sobre acciones para las empresas emergentes de IA en toda Europa;

iii. Entorno internacional

265.  Señala que la Unión debería dar ejemplo y forjar una sólida alianza tecnológica internacional basada en valores fundamentales, colaborando con socios afines para establecer normas reglamentarias comunes, beneficiarse de las mejores prácticas en los ámbitos de los derechos de la IA, los derechos de privacidad, los flujos de datos y las normas de competencia, y dar respuesta a las vulnerabilidades estratégicas aprovechando los activos de cada uno y poniendo en común los recursos en los ámbitos en los que sea mutuamente beneficioso hacerlo; subraya que la Unión también debe apoyar activamente el refuerzo de la cooperación internacional en materia de IA ética, fiable y centrada en el ser humano en los foros multilaterales y bilaterales pertinentes, por ejemplo, en el marco de las Naciones Unidas, la OCDE, el Consejo de Europa, la Organización Mundial del Comercio, el Foro Económico Mundial y el G-20; acoge con satisfacción, en particular, el establecimiento del Consejo UE-EE. UU. de Comercio y Tecnología, que considera la cooperación en materia de normas de IA como una prioridad clave y sostiene que, habida cuenta de su potencial estratégico, el Consejo de Comercio y Tecnología debe reforzarse mediante una dimensión interparlamentaria, con la participación del Parlamento Europeo y el Congreso de los Estados Unidos;

266.  Sugiere que se establezca también un grupo de trabajo transatlántico específico sobre IA, que incluya a representantes gubernamentales, de las organizaciones de normalización, del sector privado y de la sociedad civil, para trabajar en normas y directrices éticas comunes para la IA; propone la creación de una plataforma a largo plazo para el intercambio en materia de IA y otras cuestiones digitales y comerciales importantes sobre la base del actual Consejo de Comercio y Tecnología, junto con otros socios afines;

267.  Subraya que la Unión debe promover un uso socialmente responsable y ético de la IA y cooperar con los organismos internacionales de normalización para seguir mejorando las normas sobre ética, seguridad, fiabilidad, interoperabilidad y seguridad; acoge con satisfacción las recientes iniciativas de normalización puestas en marcha por agentes como el Comité Técnico Mixto de la Organización Internacional de Normalización y la Comisión Electrotécnica Internacional con el objetivo de armonizar a escala mundial los diferentes códigos de IA; señala, asimismo, que Europa debe promover y desarrollar normas, en particular en los ámbitos de la fabricación inteligente, el Internet de las cosas, la robótica y los análisis de datos; propone que se ofrezca un mejor apoyo a los académicos, la sociedad civil y las pymes para que participen en los foros de normalización;

268.  Apoya la iniciativa de comercio electrónico de la Organización Mundial del Comercio para desarrollar una política inclusiva, de alto nivel, comercialmente significativa, basada en la evidencia y específica para abordar mejor los obstáculos al comercio digital; subraya que el acuerdo debe reflejar también los principios de la buena gobernanza y proporcionar a los Gobiernos la capacidad de contrarrestar el proteccionismo digital, protegiendo y promoviendo al mismo tiempo la confianza de los consumidores y creando un valor real para la economía mundial;

269.  Propone que la Comisión siga abordando las barreras comerciales injustificadas, en particular las barreras no arancelarias o las restricciones de acceso al mercado para las empresas europeas de IA en terceros países; subraya que las políticas comercial, de vecindad y de desarrollo también deberían utilizarse activamente para dar forma al debate internacional sobre la IA y promover los principios éticos europeos en materia de IA;

g) Seguridad

i. La IA y la aplicación de la ley

270.  Subraya la importancia de que los servicios encargados de la aplicación de las leyes tengan la capacidad de determinar y contrarrestar las actividades delictivas con la ayuda de la tecnología de IA;

271.  Subraya la posibilidad de que el uso indebido de la IA en la aplicación de la ley resulte perjudicial, en particular dando lugar a una discriminación automatizada y a un trato ilegal de los ciudadanos, ofreciendo al mismo tiempo pocas vías de recurso; insta a los Estados miembros a que apliquen requisitos de supervisión humana significativos y garanticen vías de recurso para quienes sean objeto de decisiones tomadas por la IA;

272.  Propone que la Unión participe en los enfoques de Derecho indicativo establecidos por el Instituto Interregional de las Naciones Unidas para Investigaciones sobre la Delincuencia y la Justicia, que ha desarrollado herramientas operativas sobre la IA y ha empezado a colaborar con Interpol, sirviendo de foro único para el diálogo y la cooperación sobre IA entre los servicios encargados de la aplicación de las leyes, la industria, el mundo académico y la sociedad civil, en plena conformidad con el acervo de la Unión en materia de protección de datos y privacidad;

273.  Toma nota del papel de Europol en el desarrollo, la formación y la validación de herramientas de IA para luchar contra la delincuencia organizada, el terrorismo y la ciberdelincuencia en colaboración con el Supervisor Europeo de Protección de Datos y en el pleno respeto de los valores fundamentales de la Unión, en particular la no discriminación y la presunción de inocencia;

274.  Pide a la Comisión que refuerce los recursos financieros y humanos del Centro Europeo de Innovación para la Seguridad Interior; acoge con satisfacción los esfuerzos de Eurojust, la Agencia de los Derechos Fundamentales de la Unión Europea y Europol para desarrollar un conjunto de herramientas basadas en principios universales de responsabilidad para el uso de la IA por parte de los profesionales de la justicia y la seguridad interior (el marco AP4AI); pide a la Comisión que dote de un apoyo financiero específico a esta iniciativa para promover las normas de responsabilidad y los valores de la Unión en el ámbito de la IA;

ii. Ciberseguridad

275.  Pide a los Estados miembros que mejoren la cooperación en el ámbito de la ciberseguridad a escala europea para que la Unión y los Estados miembros puedan poner en común los recursos de forma más adecuada, coordinar y racionalizar más eficazmente las políticas nacionales de ciberseguridad, aumentar aún más la creación de capacidades y la sensibilización en materia de ciberseguridad, y proporcionar rápidamente conocimientos y asistencia técnica en materia de ciberseguridad a las pymes, así como a otros sectores más tradicionales;

276.  Anima a la Unión a que asuma el liderazgo a la hora de desarrollar una criptografía fuerte y otras normas de seguridad que hagan posible la confianza en los sistemas de IA y su interoperabilidad; subraya que, para crear una convergencia internacional en el ámbito de la supervisión de los riesgos de las TIC, las normas internacionales existentes deben servir de basarse y tenerse en cuenta todo lo posible;

277.  Propone la introducción de requisitos horizontales de ciberseguridad basados en la legislación vigente y, cuando proceda, en nuevos actos legislativos horizontales, a fin de evitar la fragmentación y garantizar un enfoque coherente en materia de ciberseguridad en todos los grupos de productos; señala que los productos de IA en el mercado único digital que lleven el marcado CE podrían, en el futuro, ser garantía tanto de un alto nivel de seguridad física como de un nivel de resiliencia cibernética adecuado al riesgo y señalar el cumplimiento de la legislación pertinente de la Unión;

278.  Propone a los Estados miembros que incentiven los requisitos de ciberseguridad para los sistemas de IA a través de las políticas de contratación pública, en particular haciendo obligatorios determinados principios éticos, de protección y de seguridad para la adquisición de aplicaciones de IA, en particular en los sectores críticos;

279.  Pide que la Agencia de la Unión Europea para la Ciberseguridad (ENISA) lleve a cabo evaluaciones sectoriales de riesgos en materia de seguridad, comenzando por los sectores, tanto públicos como privados, que se dedican a los usos más sensibles y de mayor riesgo de la IA, y con mayor potencial de impacto negativo en la salud humana, la protección, la seguridad y los derechos fundamentales; subraya que la ENISA, junto con el Centro Europeo de Competencia en Ciberseguridad y la Red de Centros Nacionales de Coordinación, debería evaluar los incidentes de ciberseguridad con el objetivo de detectar las lagunas y las nuevas vulnerabilidades, y asesorar a las instituciones de la Unión de manera oportuna sobre las medidas correctivas adecuadas;

280.  Anima a las empresas que utilizan, desarrollan o despliegan sistemas basados en IA activas en el mercado único digital a que desarrollen una estrategia de ciberseguridad clara y evaluada de forma independiente, basada en su situación individual de riesgo; alienta la inclusión de los sistemas de IA en la modelización de las amenazas y la gestión de los riesgos de seguridad; sugiere que la Comisión, ENISA y las autoridades nacionales apoyen este proceso;

281.  Afirma que los requisitos de ciberseguridad para los productos de IA deben abarcar todo su ciclo de vida; subraya que también debe quedar claro que cada empresa de la cadena de suministro debe desempeñar su papel para contribuir a la creación de productos de IA resilientes; señala que los nuevos requisitos deben basarse en el riesgo asociado al grupo de productos específico y en el grado de influencia en el nivel de riesgo, a fin de evitar cargas desproporcionadas para las pymes y las empresas emergentes;

282.  Propone que las iniciativas existentes en algunos Estados miembros, como el catálogo de criterios de cumplimiento de los servicios en la nube de IA de Alemania o el programa de certificación de la IA de Malta, se tengan en cuenta para el desarrollo de un sistema de certificación a escala de la Unión para una IA fiable;

iii. Ciberdefensa

283.  Insta a los Estados miembros a que lleven a cabo una política activa de ciberdiplomacia europea denunciando y atribuyendo los ciberataques que se produzcan en el extranjero, incluidos los impulsados por la IA, aprovechando al mismo tiempo todo el conjunto de instrumentos de diplomacia de la Unión; acoge con satisfacción que el conjunto de ciberinstrumentos de la Unión incluya la cancelación de la ayuda financiera y sanciones contra aquellos países o representantes que se dediquen a actividades cibernéticas maliciosas o realicen ataques híbridos, incluidas las campañas de desinformación, o que promuevan los ciberdelitos; reconoce que, hasta cierto punto, la ciberdefensa impulsada por la IA es más eficaz si también contiene algunos medios y medidas ofensivos, siempre que su uso sea conforme con el Derecho internacional;

284.  Sugiere, además, que se refuercen las capacidades de ciberseguridad de la Agencia Europea de Defensa, en particular mediante el uso de sistemas basados en IA para apoyar una reacción coordinada y rápida frente a los ciberataques; recomienda que se supervise la aplicación de las políticas de ciberdefensa en cada Estado miembro y se evalúe la asignación de los recursos pertinentes dentro de la Unión;

285.  Destaca la necesidad de analizar el impacto de la IA en la seguridad europea y de formular recomendaciones sobre cómo abordar los nuevos retos en materia de seguridad a escala de la Unión, en cooperación con los Estados miembros, el sector privado, los investigadores, los científicos y la sociedad civil;

286.  Insta a los Estados miembros a que adopten medidas para recompensar el descubrimiento de vulnerabilidades y apoyar las auditorías de productos, sistemas y procesos basados en la IA;

iv. El uso militar de la IA

287.  Señala que todo uso de IA militar debe estar sujeto a estrictos mecanismos de control y supervisión humana, a principios éticos y al pleno respeto de los derechos humanos y el Derecho humanitario internacionales; señala, además, que la Unión debe trabajar con sus socios afines en un marco internacional para la investigación, el desarrollo y el uso seguros de armamento asistido por IA que refuerce el Derecho internacional humanitario, también en el contexto del Derecho aplicable a los conflictos armados; recuerda las normas y los principios internacionales en vigor, como la proporcionalidad, que deben respetarse al desarrollar y utilizar nuevas tecnologías militares;

288.  Señala que las tecnologías basadas en la IA son un componente cada vez más importante de los equipamientos y las estrategias militares; subraya que los usos exclusivamente militares y de seguridad nacional de la IA deben tratarse como estrictamente distintos de los casos de uso civil; recuerda que las cuestiones relacionadas con las tecnologías emergentes en el ámbito militar, en particular las cuestiones relacionadas con la IA, se tratan en el Grupo de Expertos Gubernamentales sobre las tecnologías emergentes en el ámbito de los sistemas de armas autónomos letales, que cuenta con representación de los Estados miembros de la Unión;

289.  Acoge con satisfacción la futura Brújula Estratégica de la Unión, que debe proporcionar un marco y un cierto nivel de ambición para abordar los aspectos de seguridad y defensa de la IA; recuerda que la Cooperación Estructurada Permanente en el marco de la política común de seguridad y defensa y el Fondo Europeo de Defensa permitirán a los Estados miembros y a la Unión mejorar las inversiones, las capacidades y la interoperabilidad en el ámbito de las nuevas tecnologías, incluida la IA;

290.  Afirma que la Unión debe considerar la IA como un componente crucial de la soberanía tecnológica europea;

291.  Concluye que los Estados miembros deberían seguir formando a su personal militar para garantizar que disponga de las competencias digitales necesarias para utilizar la IA en los sistemas de control, operativos y de comunicación; acoge favorablemente el enfoque del Fondo Europeo de Defensa sobre los sistemas de armas autónomos letales y su artículo 10, apartado 6; subraya la importancia del Fondo Europeo de Defensa para apoyar la cooperación transfronteriza entre los países de la Unión en la investigación militar de la IA, el desarrollo de tecnologías de defensa de vanguardia y la construcción de la infraestructura necesaria, a saber, centros de datos con fuertes capacidades cibernéticas;

292.  Pide al Consejo que adopte una posición común sobre los sistemas de armas autónomos que garantice un control humano significativo sobre sus funciones esenciales; insiste en que se pongan en marcha negociaciones a escala internacional para establecer un instrumento jurídicamente vinculante que prohíba los sistemas de armas completamente autónomos; afirma que un acuerdo internacional de este tipo debería determinar que todas las armas letales de IA estén sujetas a una supervisión y un control humanos significativos, de modo que los seres humanos permanezcan informados y, en última instancia, sean responsables de la decisión de seleccionar un objetivo y emprender una acción letal;

293.  Pide una cooperación más estrecha con la OTAN en el ámbito de la ciberdefensa y pide a los aliados de la OTAN que apoyen los esfuerzos multilaterales para regular el uso militar de la IA;

5.Conclusión: es necesario actuar urgentemente

294.  Considera que la transformación digital en curso, en la que la IA desempeña un papel clave, ha desencadenado una competencia mundial por el liderazgo tecnológico; destaca que, hasta la fecha, la Unión se ha quedado rezagada, por lo que las futuras normas tecnológicas corren el riesgo de desarrollarse sin suficientes contribuciones de la Unión, a menudo por parte de agentes no democráticos, lo que supone un reto para la estabilidad política y la competitividad económica; llega a la conclusión de que la Unión debe actuar como un organismo mundial de normalización en materia de IA;

295.  Destaca que la IA, aunque a menudo se presenta como una amenaza imprevisible, puede ser un poderoso instrumento digital y un punto de inflexión en muchos aspectos importantes, por ejemplo, ofreciendo productos y servicios innovadores, aumentando las posibilidades de elección de los consumidores y haciendo que los procesos de producción sean más eficientes; señala que la adopción de tecnologías de IA reporta beneficios y oportunidades claros para el conjunto de la sociedad, en particular en los ámbitos de la asistencia sanitaria, la sostenibilidad, la seguridad y la competitividad; señala que, al mismo tiempo, las tecnologías de IA corren el riesgo de reducir la intervención humana y sustituir la autonomía humana; destaca que tanto los beneficios como los riesgos deben guiar e informar la regulación y la comunicación pública sobre IA;

296.  Destaca que la Unión tiene potencial para configurar el debate internacional sobre la IA y desarrollar reglas y normas comunes líderes a escala mundial, promoviendo un enfoque de la IA centrado en el ser humano, fiable y sostenible, en plena consonancia con los derechos fundamentales; pone de relieve, no obstante, que la oportunidad de consolidar un enfoque europeo tan distintivo de la IA en el panorama internacional requiere una acción rápida, razón por la cual la Unión necesita acordar pronto una estrategia conjunta en materia de IA y un marco regulador equilibrado; subraya que la configuración de normas y estándares tecnológicos internacionales requiere una coordinación y una cooperación más estrechas con socios democráticos afines;

297.  Destaca que, en la actualidad, la Unión aún está lejos de cumplir su aspiración de ser competitiva en el ámbito de la IA a escala mundial; hace hincapié, en este contexto, en la importancia de proporcionar reglas y normas armonizadas, seguridad jurídica y unas condiciones de competencia equitativas para fomentar la adopción de la IA y la innovación, en particular mediante la eliminación de las barreras administrativas innecesarias para las empresas emergentes, las pymes y la sociedad civil; reconoce que un cambio radical de esta magnitud afecta de manera diferente a varios sectores de la sociedad y hace hincapié en que la transición digital debe respetar plenamente los derechos fundamentales; pide a la Comisión, a los Estados miembros y al Parlamento, incluidas sus comisiones competentes, que hagan un seguimiento de las recomendaciones formuladas en la hoja de ruta de la Unión para la IA;

298.  Pide un entorno normativo para la IA que proporcione una gobernanza eficaz y garantice la protección de los derechos fundamentales, facilitando al mismo tiempo un acceso competitivo a los mercados digitales para todos los agentes sea cual sea su tamaño, a fin de promover la innovación y el crecimiento económico en beneficio de todos; subraya que una economía de los datos competitiva, accesible y justa, basada en normas comunes, es un requisito previo para el desarrollo y la formación adecuados de la IA; señala, en este contexto, el riesgo de que la concentración del mercado en la economía de los datos se extienda a la economía de las aplicaciones de IA;

299.  Concluye que para avanzar con respecto a las ambiciones digitales de la Unión en ámbitos como la IA se requiere un grado mucho mayor de integración y armonización en el mercado único digital, a fin de promover el intercambio transfronterizo y garantizar que se apliquen las mismas reglas y normas en toda la Unión; subraya, en este sentido, que las instituciones de la Unión también tienen que luchar contra los abusos de poder en el mercado para igualar las condiciones;

300.  Concluye que deben tomarse las medidas necesarias para garantizar que la transición digital promueva y no obstaculice la transición ecológica; concluye que los sistemas de IA requieren una infraestructura y una conectividad sólidas; subraya que la infraestructura digital en consonancia con el Pacto Verde se dirigirá a todos los sectores y cadenas de valor, y debe seguir los principios de una economía circular; subraya, no obstante, que la IA no será funcional sin el despliegue adecuado de infraestructura digital, incluida la banda ancha, la fibra los nodos de proximidad y la 5G; destaca la importancia de mitigar el aumento del consumo de energía y el uso de recursos para lograr una infraestructura digital climáticamente neutra de aquí a 2030;

301.  Pone de relieve que el rápido progreso tecnológico introducido por la IA también afectará a los medios de subsistencia de todos aquellos que no posean las capacidades para adaptarse lo suficientemente rápido a estas nuevas tecnologías; señala que la mejora de las capacidades y el reciclaje profesional pueden ayudar a abordar muchas de las preocupaciones socioeconómicas resultantes, pero subraya que estas repercusiones también deben abordarse en el contexto de los sistemas de bienestar social, las infraestructuras urbanas y rurales y los procesos democráticos; concluye que, para fomentar la adopción de las innovaciones en materia de IA, aumentar la aceptación de las aplicaciones basadas en la IA y no dejar a nadie atrás, es necesario proporcionar a las personas los medios para adquirir competencias digitales; destaca que, para aumentar la alfabetización y la resiliencia digitales, la educación basada en tecnologías de la información y de las comunicaciones y en ciencias, tecnologías, ingenierías y matemáticas debe comenzar en una etapa temprana y seguir siendo accesible a lo largo de todas las etapas de la vida; considera que las iniciativas destinadas a crear ecosistemas de IA de excelencia, atraer a talentos en el ámbito de IA a la Unión y contrarrestar la fuga de cerebros son de vital importancia;

302.  Destaca la importancia de abordar los retos que plantea la IA a los derechos fundamentales, permitiendo así que la IA se convierta efectivamente en un instrumento al servicio de las personas y la sociedad y que persiga el bien común y el interés general; concluye que, para generar confianza en la IA entre los ciudadanos, sus derechos fundamentales deben protegerse en todos los aspectos de la vida, también en el contexto del uso de la IA en la esfera pública y en el lugar de trabajo; hace hincapié, en particular, en la necesidad de reflejar los derechos, los objetivos y los intereses de las mujeres y las comunidades minoritarias en la transición digital; destaca que los servicios públicos y sus estructuras administrativas deben dar ejemplo; destaca que la Unión debe acelerar la adopción de los sistemas basados en la IA y la administración electrónica para facilitar el uso seguro de la IA en las administraciones públicas; destaca, además, que la IA puede desbloquear nuevas soluciones en el sector sanitario si los riesgos se gestionan adecuadamente y si el principio de acceso equitativo a la asistencia sanitaria se extiende plenamente a las aplicaciones de IA relacionadas con la salud;

303.  Concluye que la estrategia de la Unión en materia de IA no debe pasar por alto las consideraciones y preocupaciones militares y de seguridad que surgen con el despliegue global de las tecnologías de IA; subraya que es necesario intensificar la cooperación internacional con socios afines para proteger los derechos fundamentales y, al mismo tiempo, cooperar para minimizar las nuevas amenazas tecnológicas;

304.  Encarga a su presidenta que transmita la presente Resolución al Consejo y a la Comisión.

——————————————–

(1)          DO L 123 de 12.5.2016, p. 1.

(2)          DO C 132 de 24.3.2022, p. 102.

(3)          Textos Aprobados, P9_TA(2021)0504.

(4)          DO L 119 de 4.5.2016, p. 1.

(5)          DO L 166 de 11.5.2021, p. 1.

(6)          DO L 170 de 12.5.2021, p. 1.

(7)          DO L 303 de 28.11.2018, p. 59.

(8)          DO L 170 de 12.5.2021, p. 149.

(9)          DO L 136 de 22.5.2019, p. 1.

(10)       DO L 256 de 19.7.2021, p. 3.

(11)       DO C 288 de 31.8.2017, p. 1.

(12)       DO C 252 de 18.7.2018, p. 239.

(13)       DO C 307 de 30.8.2018, p. 163.

(14)       DO C 132 de 24.3.2022, p. 45.

(15)       DO C 433 de 23.12.2019, p. 86.

(16)       DO C 449 de 23.12.2020, p. 37.

(17)       DO C 294 de 23.7.2021, p. 14.

(18)       DO C 404 de 6.10.2021, p. 107.

(19)       DO C 404 de 6.10.2021, p. 129.

(20)       DO C 404 de 6.10.2021, p. 63.

(21)       DO C 456 de 10.11.2021, p. 34.

(22)       DO C 15 de 12.1.2022, p. 204.

(23)       DO C 494 de 8.12.2021, p. 37.

(24)       DO C 15 de 12.1.2022, p. 28.

(25)       DO C 132 de 24.3.2022, p. 17.

(26)       Roberts, M., Driggs, D., Thorpe, M. y otros: «Common pitfall and recommendations for use machines learning to detected and prognosticate for COVID-19 using chest radiographs and CT scans», Nature Machine Intelligence, 3, pp. 199-217, 15 de marzo de 2021.

(27)       Estudio de DG IPOL, «Opportunities of Artificial Intelligence» (Oportunidades de la inteligencia artificial), junio de 2020.

(28)       Documento de trabajo de AIDA, «Artificial Intelligence and the Green Deal» (Inteligencia artificial y el Pacto Verde), marzo de 2021.

(29)       Comunicación de la Comisión, de 18 de noviembre de 2021, titulada «Una política de competencia adaptada a los nuevos retos» (COM(2021)0713).

(30)       Acemoglu, D. y otros: AI and Jobs: Evidence from Online Vacancies, Oficina Nacional de Investigación Económica, diciembre de 2020.

(31)       Comunicación de la Comisión, de 9 de marzo de 2021, titulada «Brújula Digital 2030: el enfoque de Europa para el Decenio Digital» (COM(2021)0118).

(32)       Comisión Europea, Plan coordinado sobre la inteligencia artificial (COM(2018)0795).

(33)       Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión (COM(2021)0206).

(34)       Comunicación de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones – Fomentar un planteamiento europeo en materia de inteligencia artificial (COM(2021)0205).

(35)       Datos correspondientes a 2018.

(36)       Koerner, K.: (How) will the EU become an AI superstar? [(¿Cómo) se convertirá la UE en una superestrella de la IA?] Deutsche Bank, marzo de 2020.

(37)       DO L 316 de 14.11.2012, p. 12.

(38)       Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos (DO L 210 de 7.8.1985, p. 29).

(39)       Directiva (UE) 2019/1024 del Parlamento Europeo y del Consejo, de 20 de junio de 2019, relativa a los datos abiertos y la reutilización de la información del sector público (DO L 172 de 26.6.2019, p. 56).

(40)       Directiva 2014/61/UE del Parlamento Europeo y del Consejo, de 15 de mayo de 2014, relativa a medidas para reducir el coste del despliegue de las redes de comunicaciones electrónicas de alta velocidad (DO L 155 de 23.5.2014, p. 1).

(41)       Reglamento (UE) n.º 910/2014 del Parlamento Europeo y del Consejo de 23 de julio de 2014 relativo a la identificación electrónica y los servicios de confianza para las transacciones electrónicas en el mercado interior y por el que se deroga la Directiva 1999/93/CE (DO L 257 de 28.8.2014, p. 73).

(42)       DO L 295 de 21.11.2018, p. 1.

(43)       DO L 79 I de 21.3.2019, p. 1.

(44)       DO L 206 de 11.6.2021, p. 1.

20Ene/24

Recomendación de la UNESCO, de noviembre de 2021

RECOMENDACIÓN SOBRE LA ÉTICA DE LA INTELIGENCIA ARTIFICIAL

PREÁMBULO

La Conferencia General de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), reunida en París del 9 al 24 de noviembre de 2021, en su 41ª reunión,

Reconociendo las repercusiones positivas y negativas profundas y dinámicas de la inteligencia artificial (IA) en las sociedades, el medio ambiente, los ecosistemas y las vidas humanas, en particular en la mente humana, debido en parte a las nuevas formas en que su utilización influye en el pensamiento, las interacciones y la adopción de decisiones de los seres humanos y afecta a la educación, las ciencias sociales y humanas, las ciencias exactas y naturales, la cultura y la comunicación y la información,

Recordando que, con arreglo a su Constitución, la UNESCO se propone contribuir a la paz y a la seguridad estrechando, mediante la educación, la ciencia, la cultura y la comunicación y la información, la colaboración entre las naciones, a fin de asegurar el respeto universal a la justicia, a la ley, a los derechos humanos y a las libertades fundamentales que se reconocen a todos los pueblos del mundo,

Convencida de que la Recomendación que aquí se presenta, en su calidad de instrumento normativo elaborado mediante un enfoque mundial, basado en el derecho internacional y centrado en la dignidad humana y los derechos humanos, así como en la igualdad de género, la justicia social y económica y el desarrollo, el bienestar físico y mental, la diversidad, la interconexión, la inclusión y la protección del medio ambiente y de los ecosistemas, puede dar una orientación responsable a las tecnologías de la IA,

Guiada por los propósitos y principios de la Carta de las Naciones Unidas,

Considerando que las tecnologías de la IA pueden ser de gran utilidad para la humanidad y que todos los países pueden beneficiarse de ellas, pero que también suscitan preocupaciones éticas fundamentales, por ejemplo, en relación con los sesgos que pueden incorporar y exacerbar, lo que puede llegar a provocar discriminación, desigualdad, brechas digitales y exclusión y suponer una amenaza para la diversidad cultural, social y biológica, así como generar divisiones sociales o económicas; la necesidad de transparencia e inteligibilidad del funcionamiento de los algoritmos y los datos con los que han sido entrenados; y su posible impacto en, entre otros, la dignidad humana, los derechos humanos y las libertades fundamentales, la igualdad de género, la democracia, los procesos sociales, económicos, políticos y culturales, las prácticas científicas y de ingeniería, el bienestar animal y el medio ambiente y los ecosistemas,

Reconociendo también que las tecnologías de la IA pueden agravar las divisiones y desigualdades existentes en el mundo, dentro de los países y entre ellos, y que es preciso defender la justicia, la confianza y la equidad para que ningún país y ninguna persona se queden atrás, ya sea mediante el acceso equitativo a las tecnologías de la IA y el disfrute de los beneficios que aportan o mediante la protección contra sus consecuencias negativas, reconociendo al mismo tiempo las diferentes circunstancias de los distintos países y respetando el deseo de algunas personas de no participar en todos los avances tecnológicos,

Consciente de que todos los países se enfrentan a una aceleración del uso de las tecnologías de la información y la comunicación y las tecnologías de la IA, así como a una necesidad cada vez mayor de alfabetización mediática e informacional, y de que la economía digital presenta importantes desafíos sociales, económicos y ambientales y ofrece oportunidades de compartir los beneficios, especialmente para los países de ingreso mediano bajo, incluidos, entre otros, los países menos adelantados (PMA), los países en desarrollo sin litoral (PDSL) y los pequeños Estados insulares en desarrollo (PEID), que requieren el reconocimiento, la protección y la promoción de las culturas, los valores y los conocimientos endógenos a fin de desarrollar economías digitales sostenibles,

Reconociendo además que las tecnologías de la IA pueden ser beneficiosas para el medio ambiente y los ecosistemas y que, para que esos beneficios se materialicen, no deberían pasarse por alto, sino tenerse en cuenta, los posibles daños y las repercusiones negativas que pueden ocasionar en el medio ambiente y los ecosistemas,

Observando que el hecho de tener en cuenta los riesgos y las preocupaciones éticas no debería obstaculizar la innovación y el desarrollo, sino más bien ofrecer nuevas oportunidades y estimular una investigación y una innovación realizadas de manera ética que afiancen las tecnologías de la IA en los derechos humanos y las libertades fundamentales, los valores, los principios y la reflexión moral y ética,

Recordando también que en noviembre de 2019 aprobó, en su 40ª reunión, la resolución 40 C/37, en la que encargó a la Directora General que “[preparara] un instrumento normativo internacional sobre la ética de la inteligencia artificial (IA) en forma de recomendación”, que se le presentaría en su 41ª reunión en 2021,

Reconociendo que el desarrollo de las tecnologías de la IA requiere un incremento proporcional de la educación en materia de datos y de la alfabetización mediática e informacional, así como el acceso a fuentes de información independientes, pluralistas y fidedignas, en particular en el marco de los esfuerzos destinados a atenuar los riesgos de información errónea, desinformación y discurso de odio, así como los daños causados por el uso indebido de los datos personales,

Observando también que el marco normativo para las tecnologías de la IA y sus implicaciones sociales se fundamenta en los marcos jurídicos internacionales y nacionales, los derechos humanos y las libertades fundamentales, la ética, la necesidad de acceder a los datos, la información y los conocimientos, la libertad de investigación e innovación y el bienestar de los seres humanos, del medio ambiente y de los ecosistemas, y conecta los valores y principios éticos con los retos y oportunidades vinculados a las tecnologías de la IA, sobre la base de un entendimiento común y unos objetivos compartidos,

Reconociendo también que los valores y principios éticos pueden ayudar a elaborar y aplicar medidas de política y normas jurídicas basadas en los derechos, proporcionando orientación con miras al rápido desarrollo tecnológico,

Convencida también de que las normas éticas aceptadas mundialmente para las tecnologías de la IA, que respetan plenamente el derecho internacional, en particular el derecho de los derechos humanos, pueden desempeñar una función esencial en la elaboración de normas relacionadas con la IA en todo el mundo,

Teniendo presentes la Declaración Universal de Derechos Humanos (1948), los instrumentos del marco internacional de derechos humanos, entre ellos la Convención sobre el Estatuto de los Refugiados (1951), el Convenio sobre la Discriminación (Empleo y Ocupación) (1958), la Convención Internacional sobre la Eliminación de Todas las Formas de Discriminación Racial (1965), el Pacto Internacional de Derechos Civiles y Políticos (1966), el Pacto Internacional de Derechos Económicos, Sociales y Culturales (1966), la Convención sobre la Eliminación de Todas las Formas de Discriminación contra la Mujer (1979), la Convención sobre los Derechos del Niño (1989), la Convención sobre los Derechos de las Personas con Discapacidad (2006), la Convención relativa a la Lucha contra las Discriminaciones en la Esfera de la Enseñanza (1960) y la Convención sobre la Protección y Promoción de la Diversidad de las Expresiones Culturales (2005), así como cualesquiera otros instrumentos, recomendaciones y declaraciones internacionales pertinentes,

Tomando nota de la Declaración sobre el Derecho al Desarrollo (1986); de la Declaración sobre las Responsabilidades de las Generaciones Actuales para con las Generaciones Futuras (1997); de la Declaración Universal sobre Bioética y Derechos Humanos (2005); de la Declaración de las Naciones Unidas sobre los Derechos de los Pueblos Indígenas (2007); de la resolución de la Asamblea General de las Naciones Unidas sobre el examen de la Cumbre Mundial sobre la Sociedad de la Información (A/RES/70/125) (2015); de la resolución de la Asamblea General de las Naciones Unidas titulada “Transformar nuestro mundo: la Agenda 2030 para el Desarrollo Sostenible” (A/RES/70/1) (2015); de la Recomendación relativa a la Preservación del Patrimonio Documental, comprendido el Patrimonio Digital, y el Acceso al mismo (2015); de la Declaración de Principios Éticos en relación con el Cambio Climático (2017); de la Recomendación sobre la Ciencia y los Investigadores Científicos (2017); de los indicadores sobre la universalidad de Internet (aprobados en 2018 por el Programa Internacional para el Desarrollo de la Comunicación de la UNESCO), incluidos los principios ROAM (aprobados por la Conferencia General de la UNESCO en 2015); de la resolución del Consejo de Derechos Humanos sobre “El derecho a la privacidad en la era digital” (A/HRC/RES/42/15) (2019); y de la resolución del Consejo de Derechos Humanos titulada “Las tecnologías digitales nuevas y emergentes y los derechos humanos” (A/HRC/RES/41/11) (2019),

Haciendo hincapié en que debe prestarse atención específica a los países de ingreso mediano bajo, incluidos, entre otros, los PMA, los PDSL y los PEID, ya que, aunque tienen su propia capacidad, han estado insuficientemente representados en el debate sobre la ética de la IA, lo que suscita la preocupación de que se descuiden los conocimientos locales, el pluralismo cultural, los sistemas de valores y las exigencias de equidad mundial para gestionar las repercusiones positivas y negativas de las tecnologías de la IA,

Consciente también de que existen numerosas políticas en el plano nacional, así como otros marcos e iniciativas elaborados por las entidades pertinentes de las Naciones Unidas, por organizaciones intergubernamentales, incluidas organizaciones regionales, así como las del sector privado, y por organizaciones profesionales, organizaciones no gubernamentales y de la comunidad científica, relacionados con la ética y la regulación de las tecnologías de la IA,

Convencida además de que las tecnologías de la IA pueden aportar importantes beneficios, pero que su consecución también puede hacer aumentar la tensión en lo que respecta a la innovación, el acceso asimétrico a los conocimientos y las tecnologías, en particular la insuficiente educación digital y cívica que limita la capacidad del público para participar en los temas relacionados con la IA, así como las barreras al acceso a la información y las brechas en cuanto a las capacidades humanas e institucionales, los obstáculos al acceso a la innovación tecnológica y la falta de infraestructura física y digital y de marcos reguladores adecuados, en particular los relativos a los datos, problemas todos ellos que deben ser abordados,

Subrayando que es necesario fortalecer la cooperación y la solidaridad mundiales, en particular mediante el multilateralismo, para facilitar el acceso equitativo a las tecnologías de la IA y hacer frente a los desafíos que estas plantean en culturas y sistemas éticos diversos e interconectados, para reducir la posibilidad de usos indebidos, para aprovechar todo el potencial que la IA puede aportar, especialmente en el ámbito del desarrollo, y para garantizar que las estrategias nacionales en materia de IA se guíen por principios éticos,

Teniendo plenamente en cuenta que el rápido desarrollo de las tecnologías de la IA complica su aplicación y gobernanza éticas, así como el respeto y la protección de la diversidad cultural, y puede perturbar las normas y los valores éticos locales y regionales,

1. Aprueba, en este día veintitrés de noviembre de dos mil veintiuno, la presente Recomendación sobre la Ética de la Inteligencia Artificial;

2. Recomienda que los Estados Miembros apliquen, de manera voluntaria, las disposiciones de la presente Recomendación mediante la adopción de las medidas adecuadas, en particular las medidas legislativas o de otra índole que puedan ser necesarias, de acuerdo con la práctica constitucional y las estructuras de gobierno de cada Estado, con el fin de dar efecto en sus respectivas jurisdicciones a los principios y normas enunciados en la Recomendación, de conformidad con el derecho internacional, incluido el derecho internacional de los derechos humanos;

3. Recomienda también a los Estados Miembros que hagan partícipes a todas las partes interesadas, incluidas las empresas, para asegurarse de que desempeñan sus respectivas funciones en la aplicación de la presente Recomendación y que señalen la Recomendación a la atención de las autoridades, organismos, organizaciones universitarias y de investigación, instituciones y organizaciones de los sectores público, privado y de la sociedad civil que participan en las tecnologías de la IA, para que el desarrollo y la utilización de esas tecnologías se guíen tanto por una investigación científica sólida como por un análisis y una evaluación éticos.

I. ÁMBITO DE APLICACIÓN

1. La presente Recomendación trata de las cuestiones éticas relacionadas con el ámbito de la inteligencia artificial en la medida en que competen al mandato de la UNESCO. Aborda la ética de la IA como una reflexión normativa sistemática, basada en un marco integral, global, multicultural y evolutivo de valores, principios y acciones interdependientes, que puede guiar a las sociedades a la hora de afrontar de manera responsable los efectos conocidos y desconocidos de las tecnologías de la IA en los seres humanos, las sociedades y el medio ambiente y los ecosistemas, y les ofrece una base para aceptar o rechazar las tecnologías de la IA. Considera la ética como una base dinámica para la evaluación y la orientación normativas de las tecnologías de la IA, tomando como referencia la dignidad humana, el bienestar y la prevención de daños y apoyándose en la ética de la ciencia y la tecnología.

2. La presente Recomendación no pretende proporcionar una única definición de la IA, ya que tal definición tendría que cambiar con el tiempo en función de los avances tecnológicos. Su objetivo es más bien abordar las características de los sistemas de IA que tienen una importancia ética central. Por tanto, la presente Recomendación considera los sistemas de IA sistemas capaces de procesar datos e información de una manera que se asemeja a un comportamiento inteligente, y abarca generalmente aspectos de razonamiento, aprendizaje, percepción, predicción, planificación o control. Tres elementos ocupan un lugar central en este enfoque:

a) los sistemas de IA son tecnologías de procesamiento de la información que integran modelos y algoritmos que producen una capacidad para aprender y realizar tareas cognitivas, dando lugar a resultados como la predicción y la adopción de decisiones en entornos materiales y virtuales. Los sistemas de IA están diseñados para funcionar con diferentes grados de autonomía, mediante la modelización y representación del conocimiento y la explotación de datos y el cálculo de correlaciones. Pueden incluir varios métodos, como, por ejemplo, aunque no exclusivamente:

i) el aprendizaje automático, incluido el aprendizaje profundo y el aprendizaje de refuerzo;

ii) el razonamiento automático, incluidas la planificación, la programación, la representación del conocimiento y el razonamiento, la búsqueda y la optimización.

Los sistemas de IA pueden utilizarse en los sistemas ciberfísicos, incluidos la Internet de las cosas, los sistemas robóticos, la robótica social y las interfaces entre seres humanos y ordenadores, que comportan el control, la percepción, el procesamiento de los datos recogidos por sensores y el funcionamiento de los actuadores en el entorno en que operan los sistemas de IA;                         

b) las cuestiones éticas relativas a los sistemas de IA atañen a todas las etapas del ciclo de vida de estos sistemas, que aquí se entiende que van desde la investigación, la concepción y el desarrollo hasta el despliegue y la utilización, pasando por el mantenimiento, el funcionamiento, la comercialización, la financiación, el seguimiento y la evaluación, la validación, el fin de la utilización, el desmontaje y la terminación. Además, los actores de la IA pueden definirse como todo actor que participe en al menos una etapa del ciclo de vida del sistema de IA y pueden ser tanto personas físicas como jurídicas, por ejemplo, investigadores, programadores, ingenieros, especialistas en datos, usuarios finales, empresas, universidades y entidades públicas y privadas, entre otros;

c) los sistemas de IA plantean nuevos tipos de cuestiones éticas que incluyen, aunque no exclusivamente, su impacto en la adopción de decisiones, el empleo y el trabajo, la interacción social, la atención de la salud, la educación, los medios de comunicación, el acceso a la información, la brecha digital, la protección del consumidor y de los datos personales, el medio ambiente, la democracia, el estado de derecho, la seguridad y el mantenimiento del orden, el doble uso y los derechos humanos y las libertades fundamentales, incluidas la libertad de expresión, la privacidad y la no discriminación. Además, surgen nuevos desafíos éticos por el potencial de los algoritmos de la IA para reproducir y reforzar los sesgos existentes, lo que puede exacerbar las formas ya existentes de discriminación, los prejuicios y los estereotipos. Algunas de estas cuestiones tienen que ver con la capacidad de los sistemas de IA para realizar tareas que antes solo podían hacer los seres vivos y que, en algunos casos, incluso se limitaban solo a los seres humanos. Estas características otorgan a los sistemas de IA una función nueva y determinante en las prácticas y la sociedad humanas, así como en su relación con el medio ambiente y los ecosistemas, creando un nuevo contexto para que los niños y los jóvenes crezcan, desarrollen una comprensión del mundo y de sí mismos, comprendan críticamente los medios de comunicación y la información y aprendan a tomar decisiones. A largo plazo, los sistemas de IA podrían disputar al ser humano el sentido especial de la experiencia y la capacidad de actuar que le son propios, lo que plantearía nuevas inquietudes sobre la autocomprensión, la interacción social, cultural y ambiental, la autonomía, la capacidad de actuar, el valor y la dignidad del ser humano, entre otras.

3. En la presente Recomendación se presta especial atención a las repercusiones éticas más amplias de los sistemas de IA en las principales esferas de competencia de la UNESCO ―la educación, la ciencia, la cultura y la comunicación y la información―, examinadas en el estudio preliminar sobre la ética de la inteligencia artificial elaborado en 2019 por la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología (COMEST) de la UNESCO:

a) la educación, porque vivir en sociedades en proceso de digitalización exige nuevas prácticas educativas, una reflexión ética, un pensamiento crítico, prácticas de concepción responsables y nuevas competencias, dadas las implicaciones para el mercado laboral, la empleabilidad y la participación cívica;

b) la ciencia, en el sentido más amplio, que abarca todos los ámbitos académicos desde las ciencias exactas y naturales y las ciencias médicas hasta las ciencias sociales y humanas, ya que las tecnologías de la IA aportan nuevas capacidades y enfoques de investigación, influyen en nuestra concepción de la comprensión y la explicación científicas y crean una nueva base para la adopción de decisiones;

c) la identidad y la diversidad culturales, ya que las tecnologías de la IA pueden enriquecer las industrias culturales y creativas, pero también pueden dar lugar a una mayor concentración de la oferta de contenidos, los datos, los mercados y los ingresos de la cultura en manos de unos pocos actores, lo que puede tener consecuencias negativas para la diversidad y el pluralismo de las lenguas, los medios de comunicación, las expresiones culturales, la participación y la igualdad;

d) la comunicación y la información, ya que las tecnologías de la IA desempeñan una función cada vez más importante en el procesamiento, la estructuración y el suministro de información; las cuestiones del periodismo automatizado y del suministro algorítmico de noticias y la moderación y la conservación de contenidos en los medios sociales y los buscadores son solo algunos ejemplos que plantean cuestiones relacionadas con el acceso a la información, la desinformación, la información errónea, el discurso de odio, la aparición de nuevas formas de narrativa social, la discriminación, la libertad de expresión, la privacidad y la alfabetización mediática e informacional, entre otras.

4. La presente Recomendación se dirige a los Estados Miembros, tanto en su calidad de actores de la IA como de autoridades responsables de la elaboración de marcos jurídicos y reguladores a lo largo de todo el ciclo de vida de los sistemas de IA, así como de la promoción de la responsabilidad empresarial. También proporciona orientación ética a todos los actores de la IA, incluidos los sectores público y privado, al sentar las bases para una evaluación del impacto ético de los sistemas de IA a lo largo de su ciclo de vida.

II. FINES Y OBJETIVOS

5. La presente Recomendación tiene por objeto servir de base para poner los sistemas de IA al servicio de la humanidad, las personas, las sociedades y el medio ambiente y los ecosistemas, así como para prevenir daños. Aspira también a estimular la utilización de los sistemas de IA con fines pacíficos.

6. Además de los marcos éticos relativos a la IA existentes en todo el mundo, la presente Recomendación pretende aportar un instrumento normativo aceptado mundialmente que no solo se centre en la articulación de valores y principios, sino también en su aplicación práctica, mediante recomendaciones de política concretas, haciendo especial hincapié en la inclusión, las cuestiones de igualdad de género y la protección del medio ambiente y los ecosistemas.

7. Dado que la complejidad de las cuestiones éticas que rodean a la IA exige la cooperación de múltiples partes interesadas en los diversos niveles y sectores de las comunidades internacionales, regionales y nacionales, la presente Recomendación tiene por objeto permitir que las partes interesadas asuman una responsabilidad compartida basada en un diálogo mundial e intercultural.

8. Los objetivos de la presente Recomendación son los siguientes:

a) proporcionar un marco universal de valores, principios y acciones para orientar a los Estados en la formulación de sus leyes, políticas u otros instrumentos relativos a la IA, de conformidad con el derecho internacional;

b) orientar las acciones de las personas, los grupos, las comunidades, las instituciones y las empresas del sector privado a fin de asegurar la incorporación de la ética en todas las etapas del ciclo de vida de los sistemas de IA;

c) proteger, promover y respetar los derechos humanos y las libertades fundamentales, la dignidad humana y la igualdad, incluida la igualdad de género; salvaguardar los intereses de las generaciones presentes y futuras; preservar el medio ambiente, la biodiversidad y los ecosistemas; y respetar la diversidad cultural en todas las etapas del ciclo de vida de los sistemas de IA;

d) fomentar el diálogo multidisciplinario y pluralista entre múltiples partes interesadas y la concertación sobre cuestiones éticas relacionadas con los sistemas de IA;

e) promover el acceso equitativo a los avances y los conocimientos en el ámbito de la IA y el aprovechamiento compartido de los beneficios, prestando especial atención a las necesidades y contribuciones de los países de ingreso mediano bajo, incluidos los PMA, los PDSL y los PEID.

III. VALORES Y PRINCIPIOS

9. Los valores y principios que figuran a continuación deberían ser respetados por todos los actores durante el ciclo de vida de los sistemas de IA, en primer lugar, y, cuando resulte necesario y conveniente, ser promovidos mediante modificaciones de las leyes, los reglamentos y las directrices empresariales existentes y la elaboración de otros nuevos. Todo ello debe ajustarse al derecho internacional, en particular la Carta de las Naciones Unidas y las obligaciones de los Estados Miembros en materia de derechos humanos, y estar en consonancia con los objetivos de sostenibilidad social, política, ambiental, educativa, científica y económica acordados internacionalmente, como los Objetivos de Desarrollo Sostenible (ODS) de las Naciones Unidas.

10. Los valores desempeñan una importante función como ideales que motivan la orientación de las medidas de política y las normas jurídicas. Mientras que el conjunto de valores que se enuncian a continuación inspira, por tanto, un comportamiento deseable y representa los fundamentos de los principios, los principios, por su parte, revelan los valores subyacentes de manera más concreta, de modo que estos últimos puedan aplicarse más fácilmente en las declaraciones de política y las acciones.

11. Si bien todos los valores y principios que se enuncian a continuación son deseables en sí mismos, en cualquier contexto práctico, puede haber tensiones entre ellos. En cualquier situación, será necesaria una evaluación del contexto para gestionar estas posibles tensiones, teniendo en cuenta el principio de proporcionalidad y de conformidad con los derechos humanos y las libertades fundamentales. En todos los casos, toda posible limitación de los derechos humanos y las libertades fundamentales ha de tener una base jurídica y ser razonable, necesaria y proporcional, así como conforme a las obligaciones de los Estados con arreglo al derecho internacional. Para elegir de manera juiciosa entre esas posibilidades, será necesario por lo general colaborar con una amplia gama de partes interesadas apropiadas, haciendo uso del diálogo social, así como de la deliberación ética, la diligencia debida y la evaluación del impacto.

12. La fiabilidad y la integridad del ciclo de vida de los sistemas de IA son esenciales para velar por que las tecnologías de la IA estén al servicio del bien de la humanidad, las personas, las sociedades y el medio ambiente y los ecosistemas, y encarnen los valores y principios enunciados en la presente Recomendación. Las personas deberían tener buenas razones para confiar en que los sistemas de IA pueden aportar beneficios individuales y compartidos, al tiempo que se adoptan medidas adecuadas para atenuar los riesgos. Un requisito esencial para la fiabilidad es que, a lo largo de su ciclo de vida, los sistemas de IA estén sujetos a un seguimiento exhaustivo por las partes interesadas pertinentes, según corresponda. Dado que la fiabilidad resulta de la aplicación de los principios expuestos en este documento, todas las medidas políticas propuestas en la presente Recomendación están dirigidas a promover la fiabilidad en todas las etapas del ciclo de vida de los sistemas de IA.

III. 1 VALORES

Respeto, protección y promoción de los derechos humanos, las libertades fundamentales y la dignidad humana

13. La dignidad inviolable e intrínseca de cada ser humano constituye la base del sistema universal, indivisible, inalienable, interdependiente e interrelacionado de derechos humanos y libertades fundamentales. Por consiguiente, el respeto, la protección y la promoción de la dignidad humana y de los derechos establecidos por el derecho internacional, en particular el derecho internacional de los derechos humanos, son esenciales a lo largo del ciclo de vida de los sistemas de IA. La dignidad humana tiene que ver con el reconocimiento del valor intrínseco e igual de cada ser humano, con independencia de su raza, color, ascendencia, género, edad, idioma, religión, opiniones políticas, origen nacional, étnico o social, condición económica o social de nacimiento, discapacidad o cualquier otro motivo.

14. Ningún ser humano ni comunidad humana debería sufrir daños o sometimiento, ya sean de carácter físico, económico, social, político, cultural o mental, durante ninguna etapa del ciclo de vida de los sistemas de IA. A lo largo de su ciclo de vida, los sistemas de IA deberían mejorar la calidad de vida de los seres humanos, dejando a las personas o los grupos la tarea de definir el concepto de “calidad de vida”, siempre que como resultado de esa definición no se produzca ninguna violación o abuso de los derechos humanos y las libertades fundamentales ni de la dignidad de las personas.

15. Las personas pueden interactuar con los sistemas de IA a lo largo de su ciclo de vida y recibir su asistencia, por ejemplo, para el cuidado de las personas vulnerables o en situación de vulnerabilidad, incluidos, entre otros, los niños, las personas de edad, las personas con discapacidad o los enfermos. En el marco de esas interacciones, las personas nunca deberían ser cosificadas, su dignidad no debería ser menoscabada de ninguna otra manera, y sus derechos humanos y libertades fundamentales nunca deberían ser objeto de violación o abusos.

16. Los derechos humanos y las libertades fundamentales han de ser respetados, protegidos y promovidos a lo largo del ciclo de vida de los sistemas de IA. Los gobiernos, el sector privado, la sociedad civil, las organizaciones internacionales, las comunidades técnicas y las universidades deben respetar los instrumentos y marcos de derechos humanos en sus intervenciones en los procesos que rodean el ciclo de vida de los sistemas de IA. Es necesario que las nuevas tecnologías proporcionen nuevos medios para promover, defender y ejercer los derechos humanos, y no para vulnerarlos.

Prosperidad del medio ambiente y los ecosistemas

17. La prosperidad del medio ambiente y los ecosistemas debería ser reconocida, protegida y promovida a lo largo del ciclo de vida de los sistemas de IA. Además, el medio ambiente y los ecosistemas son una necesidad existencial para que la humanidad y los demás seres vivos puedan disfrutar de los beneficios derivados de los avances de la IA.

18. Todos los actores que participan en el ciclo de vida de los sistemas de IA deben respetar el derecho internacional y las leyes, normas y prácticas nacionales aplicables, como la precaución, concebidas para la protección y la restauración del medio ambiente y los ecosistemas y para el desarrollo sostenible. Deberían reducir el impacto ambiental de los sistemas de IA, en particular, aunque no exclusivamente, su huella de carbono, para asegurar la minimización del cambio climático y los factores de riesgo ambiental, y prevenir la explotación, la utilización y la transformación no sostenibles de los recursos naturales que contribuyen al deterioro del medio ambiente y a la degradación de los ecosistemas.

Garantizar la diversidad y la inclusión

19. El respeto, la protección y la promoción de la diversidad y la inclusión deberían garantizarse a lo largo del ciclo de vida de los sistemas de IA, de conformidad con el derecho internacional, en particular el derecho de los derechos humanos. Para ello se podría promover la participación activa de todas las personas o grupos, con independencia de su raza, color, ascendencia, género, edad, idioma, religión, opiniones políticas, origen nacional, étnico o social, condición económica o social de nacimiento, discapacidad o cualquier otro motivo.

20. La diversidad de las elecciones de estilo de vida, creencias, opiniones, expresiones o experiencias personales, incluida la utilización opcional de sistemas de IA y la concepción conjunta de estas arquitecturas, no debería restringirse durante ninguna etapa del ciclo de vida de dichos sistemas.

21. Además, habría que esforzarse, principalmente mediante la cooperación internacional, por paliar la falta de infraestructura, educación y competencias tecnológicas necesarias, así como de marcos jurídicos, que afecta a algunas comunidades, en particular en los países de ingreso mediano bajo, los PMA, los PDSL y los PEID, y no aprovecharse nunca de esa situación.

Vivir en sociedades pacíficas, justas e interconectadas

22. Los actores de la IA deberían propiciar sociedades pacíficas y justas, sobre la base de un futuro interconectado en beneficio de todos, compatibles con los derechos humanos y las libertades fundamentales, y participar en su construcción. El valor de vivir en sociedades pacíficas y justas apunta al potencial de los sistemas de IA para contribuir a lo largo de su ciclo de vida a la interconexión de todas las criaturas vivas entre sí y con el medio natural.

23. La noción de interconexión de los seres humanos se basa en el conocimiento de que cada uno de ellos pertenece a un todo más amplio, que prospera cuando todas las partes que lo constituyen pueden progresar. Vivir en sociedades pacíficas, justas e interconectadas requiere un vínculo orgánico, inmediato y no calculado de solidaridad, caracterizado por una búsqueda permanente de relaciones pacíficas, tendentes al cuidado de los demás y del medio natural en el sentido más amplio del término.

24. Este valor exige que se promuevan la paz, la inclusión y la justicia, la equidad y la interconexión durante el ciclo de vida de los sistemas de IA, en la medida en que los procesos de dicho ciclo de vida no deberían segregar ni cosificar a los seres humanos y las comunidades ni mermar su libertad, su autonomía de decisión y su seguridad, así como tampoco dividir y enfrentar entre sí a las personas y los grupos ni amenazar la coexistencia entre los seres humanos, los demás seres vivos y el medio natural.

III. 2 PRINCIPIOS

Proporcionalidad e inocuidad

25. Debería reconocerse que las tecnologías de la IA no garantizan necesariamente, por sí mismas, la prosperidad de los seres humanos ni del medio ambiente y los ecosistemas. Además, ninguno de los procesos relacionados con el ciclo de vida de los sistemas de IA podrá ir más allá de lo necesario para lograr propósitos u objetivos legítimos, y esos procesos deberían ser adecuados al contexto. En caso de que pueda producirse cualquier daño para los seres humanos, los derechos humanos y las libertades fundamentales, las comunidades y la sociedad en general, o para el medio ambiente y los ecosistemas, debería garantizarse la aplicación de procedimientos de evaluación de riesgos y la adopción de medidas para impedir que ese daño se produzca.

26. La decisión de utilizar sistemas de IA y la elección del método de IA deberían justificarse de las siguientes maneras:

a) el método de IA elegido debería ser adecuado y proporcional para lograr un objetivo legítimo determinado;

b) el método de IA elegido no debería vulnerar los valores fundamentales enunciados en el presente documento, en particular, su utilización no debe constituir una violación o un abuso de los derechos humanos; y

c) el método de IA elegido debería ser adecuado al contexto y basarse en fundamentos científicos rigurosos. En los casos en que se entienda que las decisiones tienen un impacto irreversible o difícil de revertir o que pueden implicar decisiones de vida o muerte, la decisión final debería ser adoptada por un ser humano. En particular, los sistemas de IA no deberían utilizarse con fines de calificación social o vigilancia masiva.

Seguridad y protección

27. Los daños no deseados (riesgos de seguridad) y las vulnerabilidades a los ataques (riesgos de protección) deberían ser evitados y deberían tenerse en cuenta, prevenirse y eliminarse a lo largo del ciclo de vida de los sistemas de IA para garantizar la seguridad y la protección de los seres humanos, del medio ambiente y de los ecosistemas. La seguridad y la protección de la IA se propiciarán mediante el desarrollo de marcos de acceso a los datos que sean sostenibles, respeten la privacidad y fomenten un mejor entrenamiento y validación de los modelos de IA que utilicen datos de calidad.

Equidad y no discriminación

28. Los actores de la IA deberían promover la justicia social, salvaguardar la equidad y luchar contra todo tipo de discriminación, de conformidad con el derecho internacional. Ello supone adoptar un enfoque inclusivo para garantizar que los beneficios de las tecnologías de la IA estén disponibles y sean accesibles para todos, teniendo en cuenta las necesidades específicas de los diferentes grupos de edad, los sistemas culturales, los diferentes grupos lingüísticos, las personas con discapacidad, las niñas y las mujeres y las personas desfavorecidas, marginadas y vulnerables o en situación de vulnerabilidad. Los Estados Miembros deberían esforzarse por promover un acceso inclusivo para todos, incluidas las comunidades locales, a sistemas de IA con contenidos y servicios adaptados al contexto local, y respetando el multilingüismo y la diversidad cultural. Los Estados Miembros deberían esforzarse por reducir las brechas digitales y garantizar el acceso inclusivo al desarrollo de la IA y la participación en él. En el plano nacional, los Estados Miembros deberían promover la equidad entre las zonas rurales y urbanas y entre todas las personas, con independencia de su raza, color, ascendencia, género, edad, idioma, religión, opiniones políticas, origen nacional, étnico o social, condición económica o social de nacimiento, discapacidad o cualquier otro motivo, en lo que respecta al acceso al ciclo de vida de los sistemas de IA y la participación en él. En el plano internacional, los países más avanzados tecnológicamente tienen la responsabilidad de ser solidarios con los menos avanzados para garantizar que los beneficios de las tecnologías de la IA se compartan de manera que, para estos últimos, el acceso al ciclo de vida de los sistemas de IA y la participación en él contribuyan a un orden mundial más equitativo en lo que respecta a la información, la comunicación, la cultura, la educación, la investigación y la estabilidad socioeconómica y política.

29. Los actores de la IA deberían hacer todo lo razonablemente posible por reducir al mínimo y evitar reforzar o perpetuar aplicaciones y resultados discriminatorios o sesgados a lo largo del ciclo de vida de los sistemas de IA, a fin de garantizar la equidad de dichos sistemas. Debería disponerse de un recurso efectivo contra la discriminación y la determinación algorítmica sesgada.

30. Además, es necesario abordar las brechas digital y de conocimientos dentro de los países y entre ellos a lo largo del ciclo de vida de los sistemas de IA, en particular en lo que respecta al acceso y la calidad del acceso a la tecnología y los datos, de conformidad con los marcos jurídicos nacionales, regionales e internacionales pertinentes, así como en lo referente a la conectividad, los conocimientos y las competencias y a la participación significativa de las comunidades afectadas, de manera que todas las personas sean tratadas equitativamente.

Sostenibilidad

31. El desarrollo de sociedades sostenibles depende del logro de un complejo conjunto de objetivos relacionados con distintas dimensiones humanas, sociales, culturales, económicas y ambientales. La llegada de las tecnologías de la IA puede beneficiar los objetivos de sostenibilidad o dificultar su consecución, dependiendo de la forma en que se apliquen en países con diferentes niveles de desarrollo. Por consiguiente, la evaluación continua de los efectos humanos, sociales, culturales, económicos y ambientales de las tecnologías de la IA debería llevarse a cabo con pleno conocimiento de las repercusiones de dichas tecnologías en la sostenibilidad como un conjunto de metas en constante evolución en toda una serie de dimensiones, como las que se definen actualmente en los Objetivos de Desarrollo Sostenible (ODS) de las Naciones Unidas.

Derecho a la intimidad y protección de datos

32. La privacidad, que constituye un derecho esencial para la protección de la dignidad, la autonomía y la capacidad de actuar de los seres humanos, debe ser respetada, protegida y promovida a lo largo del ciclo de vida de los sistemas de IA. Es importante que los datos para los sistemas de IA se recopilen, utilicen, compartan, archiven y supriman de forma coherente con el derecho internacional y acorde con los valores y principios enunciados en la presente Recomendación, respetando al mismo tiempo los marcos jurídicos nacionales, regionales e internacionales pertinentes.

33. Deberían establecerse en los planos nacional o internacional, de acuerdo con un enfoque de múltiples partes interesadas, marcos de protección de datos y mecanismos de gobernanza adecuados, protegidos por los sistemas judiciales y aplicados a lo largo del ciclo de vida de los sistemas de IA. Los marcos de protección de datos y todo mecanismo conexo deberían tomar como referencia los principios y normas internacionales de protección de datos relativos a la recopilación, la utilización y la divulgación de datos personales y al ejercicio de sus derechos por parte de los interesados, garantizando al mismo tiempo un objetivo legítimo y una base jurídica válida para el tratamiento de los datos personales, incluido el consentimiento informado.

34. Los sistemas algorítmicos requieren evaluaciones adecuadas del impacto en la privacidad, que incluyan también consideraciones sociales y éticas de su utilización y un empleo innovador del enfoque de privacidad desde la etapa de concepción. Los actores de la IA deben asumir la responsabilidad de la concepción y la aplicación de los sistemas de IA de manera que se garantice la protección de la información personal durante todo el ciclo de vida del sistema de IA.

Supervisión y decisión humanas

35. Los Estados Miembros deberían velar por que siempre sea posible atribuir la responsabilidad ética y jurídica, en cualquier etapa del ciclo de vida de los sistemas de IA, así como en los casos de recurso relacionados con sistemas de IA, a personas físicas o a entidades jurídicas existentes. La supervisión humana se refiere, por tanto, no solo a la supervisión humana individual, sino también a la supervisión pública inclusiva, según corresponda.

36. Puede ocurrir que, en algunas ocasiones, los seres humanos decidan depender de los sistemas de IA por razones de eficacia, pero la decisión de ceder el control en contextos limitados seguirá recayendo en los seres humanos, ya que estos pueden recurrir a los sistemas de IA en la adopción de decisiones y en la ejecución de tareas, pero un sistema de IA nunca podrá reemplazar la responsabilidad final de los seres humanos y su obligación de rendir cuentas. Por regla general, las decisiones de vida o muerte no deberían cederse a los sistemas de IA.

Transparencia y explicabilidad

37. La transparencia y la explicabilidad de los sistemas de IA suelen ser condiciones previas fundamentales para garantizar el respeto, la protección y la promoción de los derechos humanos, las libertades fundamentales y los principios éticos. La transparencia es necesaria para que los regímenes nacionales e internacionales pertinentes en materia de responsabilidad funcionen eficazmente. La falta de transparencia también podría mermar la posibilidad de impugnar eficazmente las decisiones basadas en resultados producidos por los sistemas de IA y, por lo tanto, podría vulnerar el derecho a un juicio imparcial y a un recurso efectivo, y limita los ámbitos en los que estos sistemas pueden utilizarse legalmente.

38. Si bien hay que hacer todo lo posible por aumentar la transparencia y la explicabilidad de los sistemas de IA, incluidos los que tienen un efecto extraterritorial, a lo largo de su ciclo de vida para respaldar la gobernanza democrática, el grado de transparencia y explicabilidad debería ser siempre adecuado al contexto y al efecto, ya que puede ser necesario encontrar un equilibrio entre la transparencia y la explicabilidad y otros principios como la privacidad, la seguridad y la protección. Las personas deberían estar plenamente informadas cuando una decisión se basa en algoritmos de IA o se toma a partir de ellos, en particular cuando afecta a su seguridad o a sus derechos humanos; en esas circunstancias, deberían tener la oportunidad de solicitar explicaciones e información al actor de la IA o a las instituciones del sector público correspondientes. Además, las personas deberían poder conocer los motivos por los que se ha tomado una decisión que afecta a sus derechos y libertades y tener la posibilidad de presentar alegaciones a un miembro del personal de la empresa del sector privado o de la institución del sector público habilitado para revisar y enmendar la decisión. Los actores de la IA deberían informar a los usuarios cuando un producto o servicio se proporcione directamente o con la ayuda de sistemas de IA de manera adecuada y oportuna.

39. Desde un punto de vista sociotécnico, una mayor transparencia contribuye a crear sociedades más pacíficas, justas, democráticas e inclusivas. Posibilita un escrutinio público que puede reducir la corrupción y la discriminación, y también puede ayudar a detectar y prevenir los efectos negativos sobre los derechos humanos. La transparencia tiene como objetivo proporcionar información adecuada a los respectivos destinatarios para permitir su comprensión y fomentar la confianza. En el caso específico de los sistemas de IA, la transparencia puede permitir a las personas comprender cómo se implementa cada etapa de un sistema de IA, en función del contexto y la sensibilidad del sistema en cuestión. También puede proporcionar información sobre los factores que influyen en una predicción o decisión específicas, y sobre la existencia o no de garantías adecuadas (como medidas de seguridad o de equidad). En los casos de amenazas graves con repercusiones adversas para los derechos humanos, la transparencia puede requerir también que se compartan códigos o conjuntos de datos.

40. La explicabilidad supone hacer inteligibles los resultados de los sistemas de IA y facilitar información sobre ellos. La explicabilidad de los sistemas de IA también se refiere a la inteligibilidad de la entrada, salida y funcionamiento de cada componente algorítmico y la forma en que contribuye a los resultados de los sistemas. Así pues, la explicabilidad está estrechamente relacionada con la transparencia, ya que los resultados y los subprocesos que conducen a ellos deberían aspirar a ser comprensibles y trazables, apropiados al contexto. Los actores de la IA deberían comprometerse a velar por que los algoritmos desarrollados sean explicables. En el caso de las aplicaciones de IA cuyo impacto en el usuario final no es temporal, fácilmente reversible o de bajo riesgo, debería garantizarse que se proporcione una explicación satisfactoria con toda decisión que haya dado lugar a la acción tomada, a fin de que el resultado se considere transparente.

41. La transparencia y la explicabilidad están estrechamente relacionadas con las medidas adecuadas de responsabilidad y rendición de cuentas, así como con la fiabilidad de los sistemas de IA.

Responsabilidad y rendición de cuentas

42. Los actores de la IA y los Estados Miembros deberían respetar, proteger y promover los derechos humanos y las libertades fundamentales, y deberían también fomentar la protección del medio ambiente y los ecosistemas, asumiendo su responsabilidad ética y jurídica respectiva, de conformidad con el derecho nacional e internacional, en particular las obligaciones de los Estados Miembros en materia de derechos humanos, y con las directrices éticas establecidas durante todo el ciclo de vida de los sistemas de IA, incluso con respecto a los actores de la IA dentro de su territorio y bajo su control efectivos. La responsabilidad ética y la obligación de rendir cuentas de las decisiones y las acciones basadas de alguna manera en un sistema de IA siempre deberían ser atribuibles, en última instancia, a los actores de la IA conforme a la función que tengan en el ciclo de vida del sistema de IA.

43. Deberían elaborarse mecanismos adecuados de supervisión, evaluación del impacto, auditoría y diligencia debida, incluso en lo que se refiere a la protección de los denunciantes de irregularidades, para garantizar la rendición de cuentas respecto de los sistemas de IA y de su impacto a lo largo de su ciclo de vida. Dispositivos tanto técnicos como institucionales deberían garantizar la auditabilidad y la trazabilidad (del funcionamiento) de los sistemas de IA, en particular para intentar solucionar cualquier conflicto con las normas relativas a los derechos humanos y las amenazas al bienestar del medio ambiente y los ecosistemas.

Sensibilización y educación

44. La sensibilización y la comprensión del público respecto de las tecnologías de la IA y el valor de los datos deberían promoverse mediante una educación abierta y accesible, la participación cívica, las competencias digitales y la capacitación en materia de ética de la IA, la alfabetización mediática e informacional y la capacitación dirigida conjuntamente por los gobiernos, las organizaciones intergubernamentales, la sociedad civil, las universidades, los medios de comunicación, los dirigentes comunitarios y el sector privado, y teniendo en cuenta la diversidad lingüística, social y cultural existente, a fin de garantizar una participación pública efectiva, de modo que todos los miembros de la sociedad puedan adoptar decisiones informadas sobre su utilización de los sistemas de IA y estén protegidos de influencias indebidas.

45. El aprendizaje sobre el impacto de los sistemas de IA debería incluir el aprendizaje sobre los derechos humanos y las libertades fundamentales, a través de ellos y para ellos, lo que significa que el enfoque y la comprensión de los sistemas de IA deberían basarse en el impacto de estos sistemas en los derechos humanos y el acceso a esos derechos, así como en el medio ambiente y los ecosistemas.

Gobernanza y colaboración adaptativas y de múltiples partes interesadas

46. En la utilización de datos deben respetarse el derecho internacional y la soberanía nacional. Esto significa que los Estados, en cumplimiento del derecho internacional, pueden regular los datos generados dentro de sus territorios o que pasan por ellos y adoptar medidas para la regulación efectiva de los datos, en particular su protección, sobre la base del respeto del derecho a la privacidad, de conformidad con el derecho internacional y otras normas relativas a los derechos humanos.

47. La participación de las diferentes partes interesadas a lo largo del ciclo de vida de los sistemas de IA es necesaria para garantizar enfoques inclusivos de la gobernanza de la IA, de modo que los beneficios puedan ser compartidos por todos, y para contribuir al desarrollo sostenible. Entre las partes interesadas figuran, entre otros, los gobiernos, las organizaciones intergubernamentales, la comunidad técnica, la sociedad civil, los investigadores y los círculos universitarios, los medios de comunicación, los responsables de la educación, los encargados de formular políticas, las empresas del sector privado, las instituciones de derechos humanos y los organismos de fomento de la igualdad, los órganos de vigilancia de la lucha contra la discriminación y los grupos de jóvenes y niños. Convendría adoptar normas abiertas y garantizar la interoperabilidad para facilitar la colaboración. Deberían adoptarse medidas para tener en cuenta los cambios en las tecnologías y la aparición de nuevos grupos de partes interesadas y para permitir una participación significativa de las personas, las comunidades y los grupos marginados y, si procede, en el caso de los pueblos indígenas, el respeto de su autonomía en la gestión de sus datos.  

IV. ÁMBITOS DE ACCIÓN POLÍTICA

48. Las acciones políticas que se describen en los siguientes ámbitos de actuación ponen en práctica los valores y principios enunciados en la presente Recomendación. La principal acción consiste en que los Estados Miembros establezcan medidas eficaces, por ejemplo marcos o mecanismos normativos, y velen por que otras partes interesadas, como las empresas del sector privado, las instituciones universitarias y de investigación y la sociedad civil, se adhieran a ellas, sobre todo alentando a todas las partes interesadas a que elaboren instrumentos de evaluación del impacto en los derechos humanos, el estado de derecho, la democracia y la ética, así como instrumentos de diligencia debida, de conformidad con las orientaciones, incluidos los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas. El proceso de elaboración de esas políticas o mecanismos debería incluir a todas las partes interesadas y tener en cuenta las circunstancias y prioridades de cada Estado Miembro.

La UNESCO puede ser un asociado y apoyar a los Estados Miembros en la elaboración, así como en el seguimiento y la evaluación, de los mecanismos de política.

49. La UNESCO reconoce que los Estados Miembros se encontrarán en diferentes estadios de preparación para aplicar la presente Recomendación, desde los puntos de vista científico, tecnológico, económico, educativo, jurídico, regulador, de infraestructura, social y cultural, entre otros. Cabe señalar que, aquí, el “estadio de preparación” es un estado dinámico. Por consiguiente, a fin de posibilitar la aplicación efectiva de la presente Recomendación, la UNESCO:

1) elaborará una metodología de evaluación del estadio de preparación para ayudar a los Estados Miembros interesados a determinar su situación en momentos concretos de su trayectoria de preparación a través de un conjunto de dimensiones; y

2) garantizará el apoyo a los Estados Miembros interesados en lo que respecta a la elaboración de una metodología de la UNESCO para la evaluación del impacto ético de las tecnologías de la IA y el intercambio de mejores prácticas, directrices de evaluación y otros mecanismos y trabajo analítico.

ÁMBITO DE ACTUACIÓN 1: EVALUACIÓN DEL IMPACTO ÉTICO

50. Los Estados Miembros deberían establecer marcos de evaluación del impacto, como evaluaciones del impacto ético, para determinar y analizar los beneficios, los problemas y los riesgos de los sistemas de IA, así como medidas adecuadas de prevención, atenuación y seguimiento de los riesgos, entre otros mecanismos de garantía. Esas evaluaciones del impacto deberían revelar las repercusiones en los derechos humanos y las libertades fundamentales, en particular, aunque no exclusivamente, los derechos de las personas marginadas y vulnerables o en situación de vulnerabilidad, los derechos laborales, el medio ambiente y los ecosistemas, así como las consecuencias éticas y sociales, y facilitar la participación ciudadana, de conformidad con los valores y principios enunciados en la presente Recomendación.

51. Los Estados Miembros y las empresas del sector privado deberían desarrollar mecanismos de diligencia debida y supervisión para determinar, prevenir y atenuar los riesgos y rendir cuentas de la forma en que abordan el impacto de los sistemas de IA en el respeto de los derechos humanos, el estado de derecho y las sociedades inclusivas. Los Estados Miembros deberían también poder evaluar los efectos socioeconómicos de los sistemas de IA en la pobreza y velar por que la brecha entre los ricos y los pobres, así como la brecha digital entre los países y dentro de ellos, no aumenten con la adopción masiva de tecnologías de la IA en la actualidad y en el futuro. Para ello, en particular, deberían aplicarse protocolos de transparencia ejecutables, que correspondan al acceso a la información, incluida la información de interés público en poder de entidades privadas. Los Estados Miembros, las empresas del sector privado y la sociedad civil deberían investigar los efectos sociológicos y psicológicos de las recomendaciones basadas en la IA sobre los seres humanos en lo que respecta a su autonomía de decisión. Los sistemas de IA considerados riesgos potenciales para los derechos humanos deberían ser ampliamente probados por los actores de la IA, incluso en condiciones reales si es necesario, en el marco de la evaluación del impacto ético, antes de sacarlos al mercado.

52. Los Estados Miembros y las empresas deberían aplicar medidas adecuadas para vigilar todas las etapas del ciclo de vida de los sistemas de IA en el marco de la evaluación del impacto ético, incluidos el funcionamiento de los algoritmos utilizados para la adopción de decisiones, los datos y los actores de la IA que participan en el proceso, especialmente en los servicios públicos y en los casos en que se necesita una interacción directa con el usuario final. Las obligaciones de los Estados Miembros en materia de derechos humanos deberían formar parte de los aspectos éticos de las evaluaciones de los sistemas de IA.

53. Los gobiernos deberían adoptar un marco regulador que establezca un procedimiento para que las autoridades públicas, en particular, lleven a cabo evaluaciones del impacto ético de los sistemas de IA a fin de anticipar las repercusiones, atenuar los riesgos, evitar las consecuencias perjudiciales, facilitar la participación de los ciudadanos y hacer frente a los desafíos sociales. La evaluación también debería establecer mecanismos de supervisión adecuados, como la auditabilidad, la trazabilidad y la explicabilidad, que permitan evaluar los algoritmos, los datos y los procesos de concepción, así como incluir un examen externo de los sistemas de IA. Las evaluaciones del impacto ético deberían ser transparentes y abiertas al público, cuando proceda. También deberían ser multidisciplinarias, multiculturales, pluralistas e inclusivas y contar con múltiples partes interesadas. Se debería exigir a las autoridades públicas que supervisen los sistemas de IA que hayan implantado o desplegado, mediante la introducción de mecanismos e instrumentos adecuados.

ÁMBITO DE ACTUACIÓN 2: GOBERNANZA Y ADMINISTRACIÓN ÉTICAS

54. Los Estados Miembros deberían velar por que los mecanismos de gobernanza de la IA sean inclusivos, transparentes, multidisciplinarios y multilaterales (lo que incluye la posibilidad de atenuar y reparar daños más allá de las fronteras) y cuenten con múltiples partes interesadas. En particular, la gobernanza debería incluir aspectos de previsión y dispositivos eficaces de protección, seguimiento de los efectos, aplicación y reparación.

55. Los Estados Miembros deberían velar por que se investiguen y reparen los daños causados mediante sistemas de IA, estableciendo mecanismos de aplicación estrictos y medidas correctivas, a fin de asegurarse de que los derechos humanos, las libertades fundamentales y el estado de derecho son respetados en el mundo digital y en el mundo físico. Entre esos mecanismos y medidas deberían figurar mecanismos de reparación aportados por empresas de los sectores público y privado. Con ese fin, debería promoverse la auditabilidad y la trazabilidad de los sistemas de IA. Además, los Estados Miembros deberían reforzar sus capacidades institucionales para cumplir con este compromiso y deberían colaborar con investigadores y otras partes interesadas para investigar, prevenir y minimizar todo uso potencialmente malicioso de los sistemas de IA.

56. Se alienta a los Estados Miembros a que elaboren estrategias nacionales y regionales en materia de IA y consideren la posibilidad de adoptar formas de gobernanza “blanda”, por ejemplo, un mecanismo de certificación para los sistemas de IA y el reconocimiento mutuo de su certificación, con arreglo a la sensibilidad del ámbito de aplicación y al impacto previsto en los derechos humanos, el medio ambiente y los ecosistemas, así como otras consideraciones éticas establecidas en la presente Recomendación. Dicho mecanismo podría incluir diferentes niveles de auditoría de los sistemas, los datos y el cumplimiento de las directrices éticas y de los requisitos de procedimiento teniendo en cuenta los aspectos éticos. Al mismo tiempo, no debería obstaculizar la innovación ni poner en situación de desventaja a las pequeñas y medianas empresas o las empresas incipientes, la sociedad civil y las organizaciones científicas y de investigación como resultado de una carga administrativa excesiva. Ese mecanismo también debería incluir un componente de seguimiento periódico para garantizar la solidez del sistema de IA y el mantenimiento de su integridad y su cumplimiento de las directrices éticas durante todo su ciclo de vida, exigiendo una nueva certificación si fuera necesario.

57. Los Estados Miembros y las autoridades públicas deberían realizar una autoevaluación transparente de los sistemas de IA existentes y propuestos, en la cual se debería analizar, en particular, si la adopción de la IA es apropiada y, en caso afirmativo, realizar una nueva evaluación para establecer cuál es el método adecuado, así como una evaluación para determinar si dicha adopción daría lugar a violaciones o abusos de las obligaciones de los Estados Miembros en materia de derechos humanos y, si así fuera, prohibir su utilización.

58. Los Estados Miembros deberían alentar a las entidades públicas, las empresas del sector privado y las organizaciones de la sociedad civil a que incorporen a diferentes partes interesadas a su gobernanza en materia de IA y consideren la posibilidad de añadir una función de responsable independiente de la ética de la IA o algún otro mecanismo para supervisar las actividades relacionadas con la evaluación del impacto ético, las auditorías y el seguimiento continuo, así como para garantizar la orientación ética de los sistemas de IA. Se alienta a los Estados Miembros, las empresas del sector privado y las organizaciones de la sociedad civil a que, con el respaldo de la UNESCO, creen una red de responsables independientes de la ética de la IA para apoyar este proceso en los planos nacional, regional e internacional.

59. Los Estados Miembros deberían fomentar el desarrollo y la accesibilidad de un ecosistema digital para el desarrollo ético e inclusivo de los sistemas de IA en el plano nacional, en particular con miras a reducir las diferencias de acceso durante el ciclo de vida de los sistemas de IA, contribuyendo al mismo tiempo a la colaboración internacional. Ese ecosistema incluiría, en particular, tecnologías e infraestructuras digitales y mecanismos para compartir los conocimientos en materia de IA, según proceda.

60. Los Estados Miembros deberían establecer mecanismos, en colaboración con las organizaciones internacionales, las empresas transnacionales, las instituciones universitarias y la sociedad civil, para garantizar la participación activa de todos los Estados Miembros, especialmente los países de ingreso mediano bajo, en particular los PMA, los PDSL y los PEID, en los debates internacionales sobre la gobernanza de la IA. Esto puede hacerse mediante la provisión de fondos, garantizando la participación regional en condiciones de igualdad, o mediante cualquier otro mecanismo. Además, para velar por que los foros sobre la IA sean inclusivos, los Estados Miembros deberían facilitar los desplazamientos de los actores de la IA dentro y fuera de su territorio, especialmente los de los países de ingreso mediano bajo, en particular los PMA, los PDSL y los PEID, para que puedan participar en esos foros.

61. Las modificaciones de la legislación nacional existente o la elaboración de una nueva legislación nacional en materia de sistemas de IA deben ajustarse a las obligaciones de los Estados Miembros en materia de derechos humanos y promover los derechos humanos y las libertades fundamentales a lo largo del ciclo de vida de esos sistemas. La promoción de los derechos humanos y las libertades fundamentales también debería adoptar la forma de iniciativas de gobernanza, buenos ejemplos de prácticas de colaboración en relación con los sistemas de IA y directrices técnicas y metodológicas nacionales e internacionales a medida que avancen las tecnologías de la IA. En sus prácticas relativas a los sistemas de IA, diversos sectores, incluido el privado, deben respetar, proteger y promover los derechos humanos y las libertades fundamentales utilizando los instrumentos existentes y nuevos en combinación con la presente Recomendación.

62. Los Estados Miembros que adquieran sistemas de IA para casos de utilización sensible en materia de derechos humanos, como la aplicación de la ley, la asistencia social, el empleo, los medios de comunicación y los proveedores de información, la atención de la salud y el sistema judicial independiente, deberían prever mecanismos para vigilar el impacto social y económico de dichos sistemas mediante autoridades de supervisión adecuadas, como autoridades independientes de protección de datos, una supervisión sectorial y organismos públicos encargados de la supervisión.

63. Los Estados Miembros deberían reforzar la capacidad del poder judicial para adoptar decisiones relacionadas con los sistemas de IA en el marco del estado de derecho y de conformidad con el derecho y las normas internacionales, en particular en lo que respecta a la utilización de los sistemas de IA en sus deliberaciones, velando al mismo tiempo por que se respete el principio de la supervisión humana. En caso de que los sistemas de IA sean utilizados por el poder judicial, se necesitan suficientes salvaguardias para garantizar, entre otras cosas, la protección de los derechos humanos fundamentales, el estado de derecho, la independencia judicial y el principio de supervisión humana, así como para asegurar un desarrollo y una utilización de los sistemas de IA en el poder judicial que sean fiables, orientados al interés público y centrados en el ser humano.

64. Los Estados Miembros deberían velar por que los gobiernos y las organizaciones multilaterales desempeñen una función de liderazgo para garantizar la seguridad y la protección de los sistemas de IA, con la participación de múltiples partes interesadas. En concreto, los Estados Miembros, las organizaciones internacionales y otros órganos pertinentes deberían elaborar normas internacionales que describan niveles de seguridad y transparencia mensurables y comprobables, de modo que se puedan evaluar objetivamente los sistemas y determinar los niveles de cumplimiento. Además, los Estados Miembros y las empresas deberían apoyar continuamente la investigación estratégica sobre los posibles riesgos de seguridad y protección de las tecnologías de la IA y deberían alentar la investigación sobre la transparencia y la explicabilidad, la inclusión y los conocimientos de esas tecnologías asignando fondos adicionales a esas esferas para diferentes ámbitos y en diferentes niveles, como el lenguaje técnico y natural.

65. Los Estados Miembros deberían aplicar políticas destinadas a garantizar que las acciones de los actores de la IA se ajusten al derecho, las normas y los principios internacionales de derechos humanos durante todo el ciclo de vida de los sistemas de IA, tomando plenamente en consideración al mismo tiempo las diversidades culturales y sociales existentes, en particular las costumbres locales y las tradiciones religiosas, con el debido respeto a la primacía y la universalidad de los derechos humanos.

66. Los Estados Miembros deberían establecer mecanismos para exigir a los actores de la IA que revelen y combatan toda clase de estereotipos en los resultados de los sistemas y datos de IA, ya sean deliberados o por negligencia, y que velen por que los conjuntos de datos de entrenamiento para los sistemas de IA no fomenten las desigualdades culturales, económicas o sociales, los prejuicios, la propagación de desinformación y de información falsa y la vulneración de la libertad de expresión y del acceso a la información. Debería prestarse especial atención a las regiones donde los datos son escasos.

67. Los Estados Miembros deberían aplicar políticas para promover y aumentar la diversidad y la inclusión en los equipos de desarrollo de la IA y los conjuntos de datos de entrenamiento, de modo que estos sean un reflejo de su población, así como para velar por la igualdad de acceso a las tecnologías de la IA y sus beneficios, en particular para los grupos marginados, tanto de zonas rurales como urbanas.

68. Los Estados Miembros deberían elaborar, examinar y adaptar, según proceda, marcos reguladores para alcanzar la rendición de cuentas y la responsabilidad por el contenido y los resultados de los sistemas de IA en las diferentes etapas de su ciclo de vida. Cuando sea necesario, los Estados Miembros deberían introducir marcos de responsabilidad o aclarar la interpretación de los marcos existentes para garantizar la atribución de la responsabilidad por los resultados y el funcionamiento de los sistemas de IA. Además, al elaborar los marcos reguladores, los Estados Miembros deberían tener en cuenta, en particular, que la  

responsabilidad y la rendición de cuentas deben recaer siempre en última instancia en personas físicas o jurídicas y que no se debe otorgar personalidad jurídica a los propios sistemas de IA. Para lograrlo, esos marcos reguladores deberían ajustarse al principio de la supervisión humana y establecer un enfoque global centrado en los actores de la IA y los procesos tecnológicos que intervienen en las diferentes etapas del ciclo de vida de los sistemas de IA.

69. A fin de establecer normas cuando no las haya, o de adaptar los marcos jurídicos existentes, los Estados Miembros deberían contar con todos los actores de la IA (incluidos, entre otros, investigadores, representantes de la sociedad civil y de los organismos encargados de hacer cumplir la ley, aseguradores, inversores, fabricantes, ingenieros, abogados y usuarios). Las normas pueden evolucionar hasta convertirse en mejores prácticas, leyes y reglamentos. Se alienta además a los Estados Miembros a que utilicen mecanismos como los prototipos de políticas y los entornos de pruebas reguladores para acelerar la formulación de leyes, reglamentos y políticas, incluidas sus revisiones periódicas, acordes con el rápido desarrollo de las nuevas tecnologías y garantizar que las leyes y los reglamentos se puedan poner a prueba en un entorno seguro antes de su aprobación oficial. Los Estados Miembros deberían apoyar a los gobiernos locales en la formulación de políticas, reglamentos y leyes locales que estén en consonancia con los marcos jurídicos nacionales e internacionales.

70. Los Estados Miembros deberían establecer requisitos claros de transparencia y explicabilidad de los sistemas de IA para ayudar a garantizar la fiabilidad de dichos sistemas durante todo su ciclo de vida. Esos requisitos deberían abarcar la concepción y la aplicación de mecanismos de evaluación del impacto que tengan en cuenta la naturaleza del ámbito de aplicación, la utilización prevista, los destinatarios y la viabilidad de cada sistema de IA en particular.

ÁMBITO DE ACTUACIÓN 3: POLÍTICA DE DATOS

71. Los Estados Miembros deberían procurar elaborar estrategias de gobernanza de datos que garanticen la evaluación continua de la calidad de los datos de entrenamiento para los sistemas de IA, en particular la idoneidad de los procesos de recopilación y selección de datos, y que prevean medidas adecuadas de seguridad y protección de los datos, así como mecanismos de retroalimentación para aprender de los errores y compartir las mejores prácticas entre todos los actores de la IA.

72. Los Estados Miembros deberían establecer salvaguardias adecuadas para proteger el derecho a la privacidad, de conformidad con el derecho internacional, en particular respondiendo a preocupaciones como la vigilancia. Los Estados Miembros deberían, entre otras medidas, adoptar o aplicar marcos legislativos que proporcionen una protección adecuada, conforme al derecho internacional. Los Estados Miembros deberían alentar enérgicamente a todos los actores de la IA, incluidas las empresas, a que cumplan las normas internacionales vigentes y, en particular, a que realicen evaluaciones adecuadas del impacto en la privacidad, como parte de las evaluaciones del impacto ético, que tengan en cuenta las repercusiones socioeconómicas más amplias del tratamiento previsto de los datos, y a que apliquen el principio de protección de la privacidad desde la concepción de sus sistemas. La privacidad debería ser respetada, protegida y promovida a lo largo del ciclo de vida de los sistemas de IA.

73. Los Estados Miembros deberían velar por que las personas conserven sus derechos sobre sus datos personales y estén protegidas por un marco que prevea, en particular: la transparencia; salvaguardias adecuadas para el tratamiento de datos sensibles; un nivel adecuado de protección de los datos; planes y mecanismos de rendición de cuentas eficaces y significativos; el pleno disfrute de los derechos de los interesados y la posibilidad de acceder a los datos personales en los sistemas de IA y de borrarlos, excepto en determinadas circunstancias, de conformidad con el derecho internacional; un nivel adecuado de protección que cumpla plenamente la legislación en materia de protección de datos cuando estos se utilicen con fines comerciales —por ejemplo, para permitir la publicidad con fines específicos— o sean transferidos al extranjero; y una supervisión eficaz e independiente en el marco de un mecanismo de gobernanza de los datos que permita a las personas mantener el control de sus datos personales y promueva los beneficios de la libre circulación de información a nivel internacional, incluido el acceso a los datos.

74. Los Estados Miembros deberían establecer sus políticas de datos o marcos equivalentes, o reforzar las políticas y marcos existentes, para garantizar la seguridad total de los datos personales y los datos sensibles que, de ser divulgados, puedan causar daños, lesiones o dificultades excepcionales a las personas. Cabe citar como ejemplos los datos relativos a infracciones, procesos penales y condenas, así como a las medidas de seguridad conexas; los datos biométricos, genéticos y de salud; y los datos personales como los relativos a la raza, el color, la ascendencia, el género, la edad, el idioma, la religión, las opiniones políticas, el origen nacional, étnico o social, la condición económica o social de nacimiento, la discapacidad o cualquier otra característica.

75. Los Estados Miembros deberían promover los datos abiertos. A este respecto, los Estados Miembros deberían considerar la posibilidad de revisar sus políticas y marcos reguladores, particularmente en lo que respecta al acceso a la información y el gobierno abierto, para reflejar los requisitos específicos de la IA y promover mecanismos, como repositorios abiertos de datos y códigos fuente públicos o de financiación pública y fideicomisos de datos, a fin de apoyar el intercambio seguro, equitativo, legal y ético de datos, entre otros.

76. Los Estados Miembros deberían promover y facilitar el uso de conjuntos de datos sólidos y de calidad para el entrenamiento, el desarrollo y la utilización de los sistemas de IA y ejercer vigilancia al supervisar su recopilación y utilización. Esto podría suponer, si es posible y factible, invertir en la creación de conjuntos de datos de excelencia, incluidos conjuntos de datos abiertos y fiables, que sean diversos, establecidos sobre una base jurídica válida, en particular con el consentimiento de los interesados, cuando así lo exija la ley. Debería alentarse la elaboración de normas para anotar los conjuntos de datos, incluido el desglose de datos por género y otros criterios, de manera que pueda determinarse fácilmente cómo se recopila un conjunto de datos y qué propiedades tiene.

77. Como también se sugiere en el informe del Panel de Alto Nivel sobre la Cooperación Digital del Secretario General de las Naciones Unidas, los Estados Miembros, con el apoyo de las Naciones Unidas y la UNESCO, deberían adoptar un enfoque de patrimonio digital común respecto a los datos, cuando proceda, aumentar la interoperabilidad de los instrumentos y conjuntos de datos, así como las interfaces de los sistemas que albergan datos, y alentar a las empresas del sector privado a que compartan con todas las partes interesadas los datos que recopilan, en beneficio de la investigación, la innovación o el interés público, según proceda. También deberían promover las iniciativas públicas y privadas para crear plataformas de colaboración destinadas a compartir datos de calidad en espacios de datos fiables y seguros.

ÁMBITO DE ACTUACIÓN 4: DESARROLLO Y COOPERACIÓN INTERNACIONAL

78. Los Estados Miembros y las empresas transnacionales deberían dar prioridad a la ética de la IA, incluyendo debates sobre cuestiones éticas relacionadas con la IA en los foros internacionales, intergubernamentales y de múltiples partes interesadas pertinentes.

79. Los Estados Miembros deberían velar por que la utilización de la IA en esferas relacionadas con el desarrollo, como la educación, la ciencia, la cultura, la comunicación y la información, la atención sanitaria, la agricultura y el suministro de alimentos, el medio ambiente, la gestión de recursos naturales y de infraestructuras y la planificación y el crecimiento económicos, entre otras, respete los valores y principios enunciados en la presente Recomendación.

80. Los Estados Miembros deberían procurar, por conducto de organizaciones internacionales, establecer plataformas de cooperación internacional en el ámbito de la IA para el desarrollo, en particular aportando competencias técnicas, financiación, datos, conocimientos del sector e infraestructura y facilitando la colaboración entre múltiples partes interesadas para hacer frente a los problemas complejos en materia de desarrollo, especialmente para los países de ingreso mediano bajo, en particular los PMA, los PDSL y los PEID.

81. Los Estados Miembros deberían procurar promover la colaboración internacional en materia de investigación e innovación en IA, especialmente en centros y redes de investigación e innovación que promuevan una mayor participación y liderazgo de los investigadores procedentes de países de ingreso mediano bajo y otros países, en particular de PMA, PDSL y PEID.

82. Los Estados Miembros deberían promover las investigaciones sobre la ética de la IA recurriendo a organizaciones internacionales e instituciones de investigación, así como a empresas transnacionales, que puedan servir de base para la utilización ética de los sistemas de IA por entidades públicas y privadas, incluidas las investigaciones sobre la aplicabilidad de marcos éticos específicos en culturas y contextos concretos y sobre las posibilidades de elaborar soluciones tecnológicamente viables de conformidad con esos marcos.

83. Los Estados Miembros deberían alentar la cooperación y la colaboración internacionales en el ámbito de la IA para salvar las divisiones geotecnológicas. Deberían realizarse intercambios y consultas de carácter tecnológico entre los Estados Miembros y su población, entre los sectores público y privado y entre los países más y menos avanzados tecnológicamente, respetando plenamente el derecho internacional.

ÁMBITO DE ACTUACIÓN 5: MEDIO AMBIENTE Y ECOSISTEMAS

84. Los Estados Miembros y las empresas deberían evaluar el impacto ambiental directo e indirecto de los sistemas de IA a lo largo de su ciclo de vida, en particular, aunque no exclusivamente, su huella de carbono, su consumo de energía y el impacto ambiental de la extracción de las materias primas necesarias para la fabricación de tecnologías de la IA, y reducir el impacto ambiental de los sistemas de IA y las infraestructuras de datos. Los Estados Miembros deberían asegurar el cumplimiento de las leyes, políticas y prácticas ambientales por parte de todos los actores de la IA.

85. Los Estados Miembros deberían establecer incentivos, cuando sea necesario y apropiado, para garantizar la elaboración y adopción de soluciones basadas en los derechos y en la ética de la IA en favor de la resiliencia ante el riesgo de desastres; la vigilancia, protección y regeneración del medio ambiente y los ecosistemas; y la preservación del planeta. Esos sistemas de IA deberían contar, durante todo su ciclo de vida, con la participación de las comunidades locales e indígenas y apoyar enfoques del tipo de economía circular y modalidades de consumo y producción sostenibles. Por ejemplo, los sistemas de IA podrían utilizarse, cuando sea necesario y apropiado, para:

a) apoyar la protección, el seguimiento y la gestión de los recursos naturales;

b) apoyar la predicción, la prevención, el control y la atenuación de los problemas relacionados con el clima;

c) favorecer un ecosistema alimentario más eficiente y sostenible;

d) contribuir a acelerar el acceso a la energía sostenible y su adopción a gran escala;

e) facilitar y promover la incorporación de infraestructuras sostenibles, modelos empresariales sostenibles y financiación sostenible al servicio del desarrollo sostenible;  

f) detectar los contaminantes o prever los niveles de contaminación y, de ese modo, ayudar a las partes interesadas pertinentes a definir, planificar y poner en marcha intervenciones específicas para prevenir y reducir la contaminación y la exposición.

86. Al elegir un método de IA, dada la gran necesidad potencial de datos o recursos de algunos de ellos y su consiguiente impacto en el medio ambiente, los Estados Miembros deberían velar por que los actores de la IA, de conformidad con el principio de proporcionalidad, favorezcan los métodos de IA eficientes en cuanto a datos, energía y recursos. Deberían establecerse requisitos destinados a garantizar que se disponga de pruebas adecuadas para demostrar que una aplicación de IA tendrá el efecto deseado, o que dicha aplicación cuenta con garantías que permitan justificar su utilización. Si esto no es posible, deberá privilegiarse el principio de precaución y, en los casos en que haya impactos negativos desproporcionados en el medio ambiente, no debería utilizarse la IA.

ÁMBITO DE ACTUACIÓN 6: GÉNERO

87. Los Estados Miembros deberían velar por que se optimice plenamente el potencial de las tecnologías digitales y la inteligencia artificial para contribuir a lograr la igualdad de género, y han de asegurarse de que no se conculquen los derechos humanos y las libertades fundamentales de las niñas y las mujeres, ni su seguridad e integridad, en ninguna etapa del ciclo de vida de los sistemas de IA. Además, la evaluación del impacto ético debería incluir una perspectiva transversal de género.

88. Los Estados Miembros deberían asignar fondos específicos de sus presupuestos públicos a la financiación de planes con perspectiva de género, velar por que las políticas digitales nacionales incluyan un plan de acción en materia de género y elaborar políticas pertinentes, por ejemplo, sobre la educación laboral, destinadas a apoyar a las niñas y las mujeres para que no queden excluidas de la economía digital impulsada por la IA. Deberían considerarse y realizarse inversiones especiales para ofrecer programas específicos y un lenguaje que respete la igualdad de género, a fin de ampliar las oportunidades de participación de las niñas y las mujeres en la ciencia, la tecnología, la ingeniería y las matemáticas (CTIM), incluidas las disciplinas relacionadas con las tecnologías de la información y la comunicación (TIC), y mejorar la preparación, la empleabilidad, el desarrollo de las perspectivas de carrera en condiciones de igualdad y el crecimiento profesional de las niñas y las mujeres.

89. Los Estados Miembros deberían velar por que se aproveche el potencial de los sistemas de IA para impulsar el logro de la igualdad de género. Deberían asegurarse de que estas tecnologías no exacerben las ya amplias brechas que existen entre los géneros en varios ámbitos del mundo analógico, sino que, al contrario, las eliminen. Entre estas brechas cabe citar la disparidad salarial entre hombres y mujeres; su representación desigual en ciertas profesiones y actividades; la falta de representación en los puestos directivos superiores, las juntas directivas o los equipos de investigación en el campo de la IA; la brecha educativa; las desigualdades en el acceso, la adopción, la utilización y la asequibilidad de la tecnología digital y de la IA; y la distribución desigual del trabajo no remunerado y de las responsabilidades de cuidado en nuestras sociedades.

90. Los Estados Miembros deberían velar por que los estereotipos de género y los sesgos discriminatorios no se trasladen a los sistemas de IA, sino que se detecten y corrijan de manera proactiva. Es preciso esforzarse por evitar el efecto negativo combinado de las brechas tecnológicas para lograr la igualdad de género y prevenir la violencia contra las niñas y las mujeres, así como contra los grupos insuficientemente representados, que puede manifestarse en forma de hostigamiento, acoso o trata, incluso en línea.

91. Los Estados Miembros deberían alentar la iniciativa empresarial, la participación y el compromiso de las mujeres en todas las etapas del ciclo de vida de los sistemas de IA, ofreciendo y promoviendo incentivos económicos y reguladores, entre otros estímulos y planes de apoyo, así como políticas encaminadas a lograr una participación equilibrada de hombres y mujeres en la investigación en IA en las universidades y la representación de género en los puestos directivos superiores, las juntas directivas y los equipos de investigación de las empresas digitales y de IA. Los Estados Miembros deberían garantizar que los fondos públicos (para innovación, investigación y tecnologías) se destinen a programas y empresas inclusivos, con un claro equilibrio de género, y que se alienten igualmente los fondos privados mediante principios de acción afirmativa. Deberían elaborarse y aplicarse políticas que favorezcan los entornos libres de acoso, alentando al mismo tiempo la transferencia de las mejores prácticas sobre la forma de promover la diversidad durante el ciclo de vida de los sistemas de IA.

92. Los Estados Miembros deberían promover la diversidad de género en la investigación en IA en el mundo universitario y la industria, ofreciendo incentivos a las niñas y las mujeres para que se incorporen a este campo, estableciendo mecanismos para luchar contra los estereotipos de género y el acoso en la comunidad de investigadores en IA y alentando a las entidades universitarias y privadas a que compartan las mejores prácticas sobre la forma de potenciar la diversidad de género.

93. La UNESCO puede ayudar a compilar un repositorio de mejores prácticas para incentivar la participación de las niñas, las mujeres y los grupos insuficientemente representados en todas las etapas del ciclo de vida de los sistemas de IA.

ÁMBITO DE ACTUACIÓN 7: CULTURA

94. Se alienta a los Estados Miembros a que incorporen sistemas de IA, cuando proceda, a la preservación, el enriquecimiento, la comprensión, la promoción, la gestión y la accesibilidad del patrimonio cultural material, documental e inmaterial, incluidas las lenguas en peligro y las lenguas y conocimientos indígenas, por ejemplo, introduciendo o actualizando programas educativos relacionados con la aplicación de los sistemas de IA en esas esferas, cuando sea apropiado, y asegurando un enfoque participativo, dirigidos a las instituciones y al público.

95. Se alienta a los Estados Miembros a que examinen y aborden las repercusiones de los sistemas de IA en la cultura, especialmente de las aplicaciones de procesamiento del lenguaje natural (PLN), como la traducción automática y los asistentes de voz, en los matices del lenguaje y la expresión humanos. Esas evaluaciones deberían contribuir a la elaboración y aplicación de estrategias que maximicen los beneficios de esos sistemas reduciendo las desigualdades culturales y mejorando la comprensión humana, así como haciendo frente a las repercusiones negativas, como una menor utilización, que podría conducir a la desaparición de lenguas en peligro, dialectos locales y variaciones tonales y culturales asociadas con el lenguaje y la expresión humanos.

96. Los Estados Miembros deberían promover la educación en IA y la capacitación digital de los artistas y los profesionales creativos, a fin de que puedan evaluar la idoneidad de las tecnologías de la IA para utilizarlas en su profesión y contribuir a la concepción y aplicación de tecnologías de la IA adecuadas, ya que estas tecnologías se emplean actualmente para crear, producir, distribuir, difundir y consumir una variedad de bienes y servicios culturales, teniendo en cuenta la importancia de preservar el patrimonio cultural, la diversidad y la libertad artística.

97. Los Estados Miembros deberían promover el conocimiento y la evaluación de los instrumentos de IA entre las industrias culturales locales y las pequeñas y medianas empresas que trabajan en el ámbito de la cultura, a fin de evitar el riesgo de concentración en el mercado cultural.

98. Los Estados Miembros deberían contar con las empresas tecnológicas y otras partes interesadas para promover una oferta diversa de expresiones culturales y un acceso plural a ellas y, en particular, para garantizar que la recomendación algorítmica aumente la notoriedad de los contenidos locales y la posibilidad de descubrirlos.

99. Los Estados Miembros deberían promover nuevas investigaciones en la intersección entre la IA y la propiedad intelectual, por ejemplo, para determinar si hay que proteger con derechos de propiedad intelectual las obras creadas mediante tecnologías de la IA y la manera de hacerlo. Los Estados Miembros también deberían evaluar cómo afectan las tecnologías de la IA a los derechos o los intereses de los titulares de derechos de propiedad intelectual cuyas obras se utilizan para investigar, desarrollar, entrenar o implantar aplicaciones de IA.

100. Los Estados Miembros deberían alentar a los museos, las galerías, las bibliotecas y los archivos de ámbito nacional a que utilicen sistemas de IA para realzar sus colecciones y enriquecer sus bibliotecas, bases de datos y bases de conocimientos, ofreciendo al mismo tiempo acceso a sus usuarios.

ÁMBITO DE ACTUACIÓN 8: EDUCACIÓN E INVESTIGACIÓN

101. Los Estados Miembros deberían colaborar con organizaciones internacionales, instituciones educativas y entidades privadas y no gubernamentales para impartir al público de todos los países, a todos los niveles, conocimientos adecuados en materia de IA, a fin de empoderar a la población y reducir las brechas digitales y las desigualdades en el acceso a la tecnología digital resultantes de la adopción a gran escala de sistemas de IA.

102. Los Estados Miembros deberían promover la adquisición de “competencias previas” para la educación en materia de IA, como la alfabetización básica, la aritmética elemental, las competencias digitales y de codificación y la alfabetización mediática e informacional, así como el pensamiento crítico y creativo, el trabajo en equipo, la comunicación, las aptitudes socioemocionales y las competencias en materia de ética de la IA, especialmente en los países y en las regiones o zonas dentro de los países en que existen lagunas notables en la enseñanza de esas competencias.

103. Los Estados Miembros deberían promover programas generales de sensibilización sobre los avances de la IA, en particular sobre los datos y las oportunidades que ofrecen y los retos que plantean las tecnologías de la IA, el impacto de los sistemas de IA en los derechos humanos, incluidos los derechos de los niños, y sus repercusiones. Estos programas deberían ser accesibles tanto a los grupos técnicos como a los no técnicos.

104. Los Estados Miembros deberían alentar las iniciativas de investigación sobre la utilización responsable y ética de las tecnologías de la IA en la enseñanza, la formación de docentes y el aprendizaje electrónico, entre otras cuestiones, a fin de aumentar las oportunidades y atenuar los problemas y los riesgos existentes en este ámbito. Esas iniciativas deberían ir acompañadas de una evaluación adecuada de la calidad de la educación y de las repercusiones que la utilización de las tecnologías de la IA tiene para los educandos y los docentes. Los Estados Miembros deberían también velar por que las tecnologías de la IA empoderen a los educandos y los docentes y mejoren su experiencia, teniendo presente que los aspectos relacionales y sociales y el valor de las formas tradicionales de educación son fundamentales en las relaciones entre docentes y educandos y entre los propios educandos y deberían tenerse en cuenta al examinar la adopción de las tecnologías de la IA en la educación. Los sistemas de IA utilizados en el aprendizaje deberían estar sujetos a requisitos estrictos en materia de supervisión, evaluación de las capacidades o predicción de los comportamientos de los educandos. La IA debería apoyar el proceso de aprendizaje sin reducir las capacidades cognitivas y sin recabar información sensible, respetando las normas pertinentes en materia de protección de los datos personales. Los datos facilitados para adquirir conocimientos, recopilados durante las interacciones del educando con el sistema de IA, no deben ser objeto de uso indebido, apropiación indebida o explotación delictiva, incluidos los fines comerciales.

105. Los Estados Miembros deberían promover la participación y el liderazgo de las niñas y las mujeres, las personas de diversos orígenes étnicos y culturas, las personas con discapacidad, las personas marginadas y vulnerables o en situación de vulnerabilidad y las minorías, así como de todas aquellas personas que no gocen plenamente de los beneficios de la inclusión digital, en los programas de educación en materia de IA en todos los niveles, así como el seguimiento y el intercambio con otros Estados Miembros de las mejores prácticas en este ámbito.

106. Los Estados Miembros deberían elaborar, de conformidad con sus tradiciones y programas de educación nacionales, planes de estudios sobre la ética de la IA para todos los niveles y promover la colaboración cruzada entre la enseñanza de competencias técnicas de IA y los aspectos humanísticos, éticos y sociales de la educación en IA. Deberían elaborarse cursos en línea y recursos digitales de enseñanza de la ética de la IA en las lenguas locales, incluidas las lenguas indígenas, y tenerse en cuenta la diversidad de los entornos, velando especialmente por la accesibilidad de los formatos para las personas con discapacidad.

107. Los Estados Miembros deberían promover y apoyar las investigaciones sobre la IA, en particular las investigaciones sobre la ética de la IA, por ejemplo mediante inversiones en este tipo de investigaciones o creando incentivos para que los sectores público y privado inviertan en este ámbito, reconociendo que las investigaciones contribuyen de manera significativa al desarrollo y la mejora ulteriores de las tecnologías de la IA con miras a promover el derecho internacional y los valores y principios enunciados en la presente Recomendación. Los Estados Miembros también deberían promover públicamente las mejores prácticas de los investigadores y las empresas que desarrollan la IA de forma ética y cooperar con ellos.

108. Los Estados Miembros deberían velar por que los investigadores en IA reciban formación en ética de la investigación y exigirles que tengan en cuenta consideraciones éticas en sus concepciones, productos y publicaciones, especialmente en los análisis de los conjuntos de datos que utilizan, la forma en que estos se anotan y la calidad y el alcance de los resultados, así como las posibles aplicaciones.

109. Los Estados Miembros deberían alentar a las empresas del sector privado a que faciliten el acceso de la comunidad científica a sus datos para la investigación, especialmente en los países de ingreso mediano bajo, en particular en los PMA, los PDSL y los PEID. Este acceso debería ser conforme a las normas pertinentes en materia de respeto de la privacidad y protección de datos.

110. Para asegurar una evaluación crítica de las investigaciones en IA y un seguimiento adecuado de los posibles usos indebidos o efectos adversos, los Estados Miembros deberían velar por que cualquier evolución futura relacionada con las tecnologías de la IA se base en investigaciones científicas rigurosas e independientes y promover la investigación interdisciplinaria en IA mediante la inclusión de disciplinas distintas de la ciencia, la tecnología, la ingeniería y las matemáticas (CTIM), como los estudios culturales, la educación, la ética, las relaciones internacionales, el derecho, la lingüística, la filosofía, las ciencias políticas, la sociología y la psicología.

111. Reconociendo que las tecnologías de la IA ofrecen grandes oportunidades para contribuir al avance de los conocimientos y las prácticas científicos, especialmente en las disciplinas tradicionalmente basadas en modelos, los Estados Miembros deberían alentar a las comunidades científicas a ser conscientes de los beneficios, los límites y los riesgos de su utilización, por ejemplo, intentando garantizar que las conclusiones extraídas de los enfoques, modelos y tratamientos basados en los datos sean sólidas y consistentes. Además, los Estados Miembros deberían celebrar y apoyar la función de la comunidad científica en la contribución a las políticas y en la concienciación respecto de los puntos fuertes y débiles de las tecnologías de la IA.  

AMBITO DE ACTUACIÓN 9: COMUNICACIÓN E INFORMACIÓN

112. Los Estados Miembros deberían utilizar los sistemas de IA para mejorar el acceso a la información y el conocimiento. Para ello, pueden, por ejemplo, apoyar a los investigadores, las universidades, los periodistas, el público en general y los desarrolladores, a fin de mejorar la libertad de expresión, las libertades académicas y científicas y el acceso a la información, así como aumentar la divulgación proactiva de los datos y la información oficiales.

113. Los Estados Miembros deberían garantizar que los actores de la IA respeten y promuevan la libertad de expresión y el acceso a la información en lo que respecta a la generación, moderación y conservación automáticas de contenidos. Marcos adecuados, incluso reglamentarios, deberían propiciar la transparencia de los operadores de comunicación e información en línea, velar por que los usuarios tengan acceso a puntos de vista diversos y prever procesos de notificación rápida a los usuarios sobre los motivos de la eliminación u otro tratamiento de los contenidos, así como mecanismos de recurso que permitan a los usuarios solicitar reparación.

114. Los Estados Miembros deberían invertir en competencias digitales y de alfabetización mediática e informacional y promoverlas, a fin de reforzar el pensamiento crítico y las competencias necesarias para comprender el uso y las implicaciones de los sistemas de IA, con miras a atenuar y contrarrestar la desinformación, la información errónea y el discurso de odio. Una mejor comprensión y evaluación de los efectos tanto positivos como potencialmente perjudiciales de los sistemas de recomendación debería formar parte de esos esfuerzos.

115. Los Estados Miembros deberían crear entornos propicios para que los medios de comunicación tengan los derechos y recursos necesarios para informar eficazmente sobre las ventajas y los inconvenientes de los sistemas de IA, y también alentar a los medios de comunicación a que hagan un uso ético de estos sistemas en su trabajo.

ÁMBITO DE ACTUACIÓN 10: ECONOMÍA Y TRABAJO

116. Los Estados Miembros deberían evaluar y abordar el impacto de los sistemas de IA en los mercados de trabajo y sus consecuencias en las necesidades educativas en todos los países y, más concretamente, en los países cuya economía requiere mucha mano de obra. Para ello puede ser preciso introducir una gama más amplia de competencias “básicas” e interdisciplinarias en todos los niveles educativos, a fin de dar a los trabajadores actuales y a las nuevas generaciones una oportunidad equitativa de encontrar empleo en un mercado en rápida evolución y para asegurar que sean conscientes de los aspectos éticos de los sistemas de IA. Junto a las competencias técnicas especializadas, así como a las tareas poco especializadas, deberían enseñarse competencias como “aprender a aprender”, comunicación, pensamiento crítico, trabajo en equipo, empatía y la capacidad de transferir los conocimientos propios a diversos ámbitos. Es fundamental actuar con transparencia con respecto a las competencias de las que existe demanda y actualizar los planes de estudios en torno a ellas.

117. Los Estados Miembros deberían apoyar los acuerdos de colaboración entre los gobiernos, las instituciones universitarias, las instituciones de enseñanza y formación profesional, la industria, las organizaciones de trabajadores y la sociedad civil a fin de reducir la brecha en cuanto a las competencias exigidas para adecuar los programas y estrategias de capacitación a las futuras implicaciones del trabajo y a las necesidades de la industria, incluidas las pequeñas y medianas empresas. Deberían promoverse enfoques de enseñanza y aprendizaje de la IA basados en proyectos, facilitando las asociaciones de colaboración entre las instituciones públicas, las empresas del sector privado, las universidades y los centros de investigación.

118. Los Estados Miembros deberían colaborar con empresas del sector privado, organizaciones de la sociedad civil y otras partes interesadas, incluidos trabajadores y sindicatos, para garantizar una transición equitativa a los empleados en situación de riesgo. Esto supone poner en marcha programas de perfeccionamiento y reconversión profesional, encontrar mecanismos eficaces para retener a los empleados durante esos periodos de transición y explorar programas de protección social para aquellos que no puedan reconvertirse. Los Estados Miembros deberían elaborar y aplicar programas para analizar los problemas detectados y darles respuesta, entre los que podrían figurar el perfeccionamiento y la reconversión profesional, el fortalecimiento de la protección social, la aplicación de políticas e intervenciones sectoriales proactivas y la introducción de ventajas fiscales y nuevas formas de tributación. Los Estados Miembros deberían garantizar que haya suficiente financiación pública para apoyar estos programas. Las reglamentaciones pertinentes, como los regímenes fiscales, deberían examinarse cuidadosamente y modificarse, si es necesario, para contrarrestar las consecuencias del desempleo causado por la automatización basada en la IA.

119. Los Estados Miembros deberían alentar y apoyar a los investigadores para que analicen el impacto de los sistemas de IA en el entorno laboral local con miras a anticipar las tendencias y los desafíos futuros. Estos estudios deberían tener un enfoque interdisciplinario y examinar el impacto de los sistemas de IA en los sectores económico, social y geográfico, así como en las interacciones entre seres humanos y robots y entre los propios seres humanos, a fin de asesorar sobre las mejores prácticas de reconversión y reasignación profesionales.

120. Los Estados Miembros deberían adoptar las medidas adecuadas para garantizar la competitividad de los mercados y la protección de los consumidores, considerando posibles medidas y mecanismos en los planos nacional, regional e internacional, a fin de impedir los abusos de posición dominante en el mercado, incluidos los monopolios, en relación con los sistemas de IA durante su ciclo de vida, ya se trate de datos, investigación, tecnología o mercados. Los Estados Miembros deberían prevenir las desigualdades resultantes, evaluar los mercados correspondientes y promover mercados competitivos. Se debería prestar la debida atención a los países de ingreso mediano bajo, en particular a los PMA, los PDSL y los PEID, que están más expuestos y son más vulnerables a la posibilidad de que se produzcan abusos de posición dominante en el mercado, como consecuencia de la falta de infraestructuras, capacidad humana y reglamentación, entre otros factores. Los actores de la IA que desarrollen sistemas de IA en países que hayan establecido o adoptado normas éticas en materia de IA deberían respetar estas normas cuando exporten estos productos, desarrollen sus sistemas de IA o los apliquen en países donde no existan dichas normas, respetando al mismo tiempo el derecho internacional y las leyes, normas y prácticas nacionales aplicables de estos países.

ÁMBITO DE ACTUACIÓN 11: SALUD Y BIENESTAR SOCIAL

121. Los Estados Miembros deberían esforzarse por emplear sistemas eficaces de IA para mejorar la salud humana y proteger el derecho a la vida, en particular atenuando los brotes de enfermedades, al tiempo que desarrollan y mantienen la solidaridad internacional para hacer frente a los riesgos e incertidumbres relacionados con la salud en el plano mundial, y garantizar que su despliegue de sistemas de IA en el ámbito de la atención de la salud sea conforme al derecho internacional y a sus obligaciones en materia de derechos humanos. Los Estados Miembros deberían velar por que los actores que participan en los sistemas de IA relacionados con la atención de la salud tengan en cuenta la importancia de las relaciones del paciente con su familia y con el personal sanitario.

122. Los Estados Miembros deberían garantizar que el desarrollo y el despliegue de los sistemas de IA relacionados con la salud en general y con la salud mental en particular —prestando la debida atención a los niños y los jóvenes— estén regulados, de modo que esos sistemas sean seguros, eficaces, eficientes y probados desde el punto de vista científico y médico y faciliten la innovación y el progreso médico con base empírica. Además, en el ámbito conexo de las intervenciones de salud digital, se alienta encarecidamente a los Estados Miembros a que hagan participar activamente a los pacientes y sus representantes en todas las etapas pertinentes del desarrollo del sistema.

123. Los Estados Miembros deberían prestar particular atención a la regulación de las soluciones de predicción, detección y tratamiento médicos en las aplicaciones de la IA, mediante:

a) la supervisión para minimizar y atenuar los sesgos;

b) la inclusión del profesional, el paciente, el cuidador o el usuario del servicio en el equipo en calidad de “experto en la materia” en todas las etapas pertinentes al elaborar los algoritmos;

c) una debida atención a la privacidad, dado que quizá sea necesaria una vigilancia médica, y el cumplimiento de todos los requisitos nacionales e internacionales pertinentes en materia de protección de datos;

d) mecanismos eficaces para que las personas cuyos datos personales se están analizando sepan de la utilización y el análisis de sus datos y den su consentimiento informado al respecto, sin impedir el acceso a la atención de la salud;

e) la garantía de que el cuidado humano y la decisión final sobre el diagnóstico y el tratamiento correspondan siempre a seres humanos, reconociendo al mismo tiempo que los sistemas de IA también pueden ayudarlos en su trabajo;

f) el examen, cuando sea necesario, de los sistemas de IA por un comité de investigación ética antes de su uso clínico.

124. Los Estados Miembros deberían realizar investigaciones sobre los efectos y la regulación de los posibles daños de los sistemas de IA para la salud mental, tales como un aumento de la depresión, la ansiedad, el aislamiento social, el desarrollo de adicciones, el tráfico, la radicalización y la información errónea, entre otros.

125. Los Estados Miembros deberían elaborar directrices sobre las interacciones entre seres humanos y robots y sus repercusiones en las relaciones entre seres humanos, basadas en la investigación y orientadas al desarrollo futuro de robots, y prestando especial atención a la salud mental y física de los seres humanos. Debería prestarse particular atención al uso de robots en la atención de la salud, en la atención a las personas de edad y las personas con discapacidad y en el ámbito de la educación, así como a los robots para uso infantil y para usos lúdicos, conversacionales y de compañía para niños y adultos. Además, deberían utilizarse las tecnologías de la IA para mejorar la seguridad y el uso ergonómico de los robots, en particular en entornos de trabajo en los que intervienen robots y seres humanos. Debería prestarse especial atención a la posibilidad de utilizar la IA para manipular los sesgos cognitivos humanos y hacer un mal uso de ellos.

126. Los Estados Miembros deberían velar por que las interacciones entre seres humanos y robots se ajusten a los mismos valores y principios que se aplican a cualquier otro sistema de IA, lo que incluye los derechos humanos y las libertades fundamentales, la promoción de la diversidad y la protección de las personas vulnerables o en situación de vulnerabilidad. Las cuestiones éticas relativas a los sistemas basados en la IA utilizados en las neurotecnologías y las interfaces cerebro-ordenador deberían tenerse en cuenta a fin de preservar la dignidad y la autonomía humanas.

127. Los Estados Miembros deberían velar por que los usuarios puedan determinar fácilmente si interactúan con un ser vivo o con un sistema de IA que imita las características humanas o animales y puedan rechazar eficazmente dicha interacción y solicitar la intervención humana.  

128. Los Estados Miembros deberían aplicar políticas de sensibilización sobre la antropomorfización de las tecnologías de la IA y las tecnologías que reconocen e imitan las emociones humanas, especialmente en el lenguaje utilizado para referirse a ellas, y evaluar las manifestaciones, las implicaciones éticas y las posibles limitaciones de esa antropomorfización, en particular en el contexto de la interacción entre robots y seres humanos y, especialmente, cuando se trate de niños.

129. Los Estados Miembros deberían alentar y promover la investigación colaborativa sobre los efectos de la interacción a largo plazo de las personas con los sistemas de IA, prestando especial atención a las consecuencias psicológicas y cognitivas que estos sistemas pueden tener en los niños y los jóvenes. Para ello deberían utilizarse múltiples normas, principios, protocolos, enfoques disciplinarios y un análisis de la modificación de las conductas y los hábitos, así como una cuidadosa evaluación de los impactos culturales y sociales posteriores. Además, los Estados Miembros deberían alentar la investigación sobre el efecto de las tecnologías de la IA en el desempeño del sistema sanitario y los resultados en materia de salud.

130. Los Estados Miembros, así como todas las partes interesadas, deberían establecer mecanismos para hacer participar de manera significativa a los niños y los jóvenes en las conversaciones, los debates y la adopción de decisiones sobre las repercusiones de los sistemas de IA en sus vidas y su futuro.

V. SEGUIMIENTO Y EVALUACIÓN

131. Los Estados Miembros, de acuerdo con sus circunstancias, estructuras de gobierno y disposiciones constitucionales específicas, deberían velar por el seguimiento y la evaluación de las políticas, los programas y los mecanismos relativos a la ética de la IA de forma creíble y transparente mediante una combinación de enfoques cuantitativos y cualitativos. La UNESCO puede contribuir a apoyar a los Estados Miembros mediante:

a) la elaboración de una metodología de la UNESCO de evaluación del impacto ético de las tecnologías de la IA basada en una investigación científica rigurosa y fundamentada en el derecho internacional de los derechos humanos, orientaciones para su aplicación en todas las etapas del ciclo de vida de los sistemas de IA y materiales de desarrollo de las capacidades para apoyar la labor de los Estados Miembros dirigida a capacitar a funcionarios públicos, responsables de formular políticas y otros actores pertinentes de la IA en la metodología de la evaluación del impacto ético;

b) la elaboración de una metodología de la UNESCO de evaluación del estadio de preparación para ayudar a los Estados Miembros a determinar su situación en momentos concretos de su trayectoria de preparación a través de un conjunto de dimensiones;

c) la elaboración de una metodología de la UNESCO para evaluar ex ante y ex post la eficacia y la eficiencia de las políticas y los incentivos relacionados con la ética de la IA con respecto a objetivos definidos;

d) el fortalecimiento del análisis, basado en investigaciones y pruebas, de las políticas relativas a la ética de la IA y la presentación de informes a este respecto;

e) la recopilación y difusión de información sobre los avances y las innovaciones, informes de investigación, publicaciones científicas, datos y estadísticas relativos a las políticas sobre la ética de la IA, en particular mediante las iniciativas existentes, a fin de apoyar el intercambio de mejores prácticas y el aprendizaje mutuo y de impulsar la aplicación de la presente Recomendación.  

132. Los procesos de seguimiento y evaluación deberían asegurar una amplia participación de todas las partes interesadas, entre ellas, aunque no exclusivamente, las personas vulnerables o en situación de vulnerabilidad. Se debería garantizar la diversidad social, cultural y de género, con miras a mejorar los procesos de aprendizaje y fortalecer los nexos entre las conclusiones, la adopción de decisiones, la transparencia y la rendición de cuentas sobre los resultados.

133. A fin de promover las mejores políticas y prácticas relacionadas con la ética de la IA, deberían elaborarse instrumentos e indicadores adecuados para evaluar su eficacia y eficiencia en función de normas, prioridades y objetivos acordados, incluidos objetivos específicos para las personas pertenecientes a poblaciones desfavorecidas y marginadas y personas vulnerables o en situación de vulnerabilidad, así como el impacto de los sistemas de IA en los planos individual y social. El seguimiento y la evaluación del impacto de los sistemas de IA y de las políticas y prácticas conexas relativas a la ética de la IA deberían realizarse de manera continua y sistemática proporcionalmente a los riesgos correspondientes. Este proceso debería basarse en marcos acordados internacionalmente e ir acompañado de evaluaciones de instituciones, proveedores y programas públicos y privados, incluidas autoevaluaciones, así como de estudios de seguimiento y la elaboración de conjuntos de indicadores. La recopilación y el procesamiento de datos deberían realizarse de conformidad con el derecho internacional, la legislación nacional en materia de protección y confidencialidad de datos y los valores y principios enunciados en la presente Recomendación.

134. En particular, los Estados Miembros podrían considerar posibles mecanismos de seguimiento y evaluación, como una comisión de ética, un observatorio de ética de la IA, un repositorio que abarque el desarrollo ético y conforme a los derechos humanos de los sistemas de IA, o contribuciones a las iniciativas existentes para reforzar la conformidad a los principios éticos en todas las esferas de competencia de la UNESCO, un mecanismo de intercambio de experiencias, entornos de pruebas reguladores de la IA y una guía de evaluación para que todos los actores de la IA determinen en qué medida cumplen las recomendaciones de actuación mencionadas en el presente documento.

VI. UTILIZACIÓN Y APLICACIÓN DE LA PRESENTE RECOMENDACIÓN

135. Los Estados Miembros y todas las demás partes interesadas que se indican en la presente Recomendación deberían respetar, promover y proteger los valores, principios y normas éticos relativos a la IA que se establecen en esta Recomendación y adoptar todas las medidas posibles para dar efecto a sus recomendaciones de actuación.

136. Los Estados Miembros deberían esforzarse por ampliar y complementar su propia acción en lo que respecta a la presente Recomendación, cooperando con todas las organizaciones gubernamentales y no gubernamentales nacionales e internacionales pertinentes, así como con las empresas transnacionales y las organizaciones científicas, cuyas actividades correspondan al ámbito de aplicación y a los objetivos de la presente Recomendación. La elaboración de una metodología de la UNESCO de evaluación del impacto ético y el establecimiento de comisiones nacionales de ética de la IA pueden ser instrumentos importantes a este respecto.

VII. PROMOCIÓN DE LA PRESENTE RECOMENDACIÓN

137. La UNESCO tiene la vocación de ser el principal organismo de las Naciones Unidas encargado de promover y difundir la presente Recomendación y, en consecuencia, trabajará en colaboración con otras entidades pertinentes de las Naciones Unidas, respetando al mismo tiempo su mandato y evitando la duplicación de esfuerzos.

138. La UNESCO, incluidos algunos de sus órganos, como la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología (COMEST), el Comité Internacional de Bioética (CIB) y el Comité Intergubernamental de Bioética (CIGB), trabajará también en colaboración con otras organizaciones gubernamentales y no gubernamentales internacionales, regionales y subregionales.

139. Aunque en la UNESCO el mandato de promover y proteger es competencia de los gobiernos y los organismos intergubernamentales, la sociedad civil desempeñará una función importante en la defensa de los intereses del sector público y, por lo tanto, la UNESCO debe garantizar y promover su legitimidad.

VIII. DISPOSICIONES FINALES

140. La presente Recomendación debe entenderse como un todo, y los valores y principios fundamentales deben considerarse complementarios y relacionados entre sí.

141. Ninguna disposición de la presente Recomendación podrá interpretarse como si reemplazara, modificara o menoscabara de cualquier otra manera las obligaciones o los derechos de los Estados con arreglo al derecho internacional o como si autorizara a un Estado, otro agente político, económico o social, grupo o individuo a emprender actividades o realizar actos que sean contrarios a los derechos humanos, las libertades fundamentales, la dignidad humana y el respeto del medio ambiente y los ecosistemas, tanto vivos como no vivos.

16Ene/24

Resolución del Parlamento Europeo, de 20 de octubre de 2020

Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial (2020/2014(INL))

(2021/C 404/05)

El Parlamento Europeo,

— Visto el artículo 225 del Tratado de Funcionamiento de la Unión Europea,

— Vistos los artículos 114 y 169 del Tratado de Funcionamiento de la Unión Europea,

— Vista la Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos (1),

— Vista la Directiva 2005/29/CE del Parlamento Europeo y del Consejo, de 11 de mayo de 2005, relativa a las prácticas comerciales desleales de las empresas en sus relaciones con los consumidores en el mercado interior («Directiva sobre las prácticas comerciales desleales») (2) y la Directiva 2011/83/UE del Parlamento Europeo y del Consejo, de 25 de octubre de 2011, sobre los derechos de los consumidores (3), así como otras normas de protección del consumidor,

— Visto el Reglamento (UE) 2017/745 del Parlamento Europeo y del Consejo, de 5 de abril de 2017, sobre los productos sanitarios (4),

— Visto el Reglamento (UE) 2018/1488 del Consejo, de 28 de septiembre de 2018, por el que se crea la Empresa Común de Informática de Alto Rendimiento Europea (5),

— Vista la Directiva (UE) 2019/770 del Parlamento Europeo y del Consejo, de 20 de mayo de 2019, relativa a determinados aspectos de los contratos de suministro de contenidos y servicios digitales (6),

— Vistos el Acuerdo interinstitucional, de 13 de abril de 2016, sobre la mejora de la legislación y las directrices para la mejora de la legislación (7),

— Vista la propuesta de Reglamento del Parlamento Europeo y del Consejo, de 6 de junio de 2018, por el que se establece el programa Europa Digital para el período 2021-2027 (COM(2018)0434),

— Vista la Comunicación de la Comisión, de 25 de abril de 2018, titulada «Inteligencia artificial para Europa» (COM(2018)0237),

— Vista la Comunicación de la Comisión, de 7 de diciembre de 2018, titulada «Plan coordinado sobre la inteligencia artificial» (COM(2018)0795),

— Vista la Comunicación de la Comisión, de 8 de abril de 2019, titulada «Generar confianza en la inteligencia artificial centrada en el ser humano» (COM(2019)0168),

— Visto el Informe de la Comisión al Parlamento Europeo, al Consejo y al Comité Económico y Social Europeo, de 19 de febrero de 2020, sobre las repercusiones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica (COM(2020)0064),

— Visto el Libro Blanco de la Comisión, de 19 de febrero de 2020, sobre la inteligencia artificial

— un enfoque europeo orientado a la excelencia y la confianza (COM(2020)0065),

— Vista su Resolución, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (8),

— Vista su Resolución, de 1 de junio de 2017, sobre la digitalización de la industria europea (9),

— Vista su Resolución, de 12 de septiembre de 2018, sobre los sistemas armamentísticos autónomos (10),

— Vista su Resolución, de 12 de febrero de 2019, sobre una política industrial global europea en materia de inteligencia artificial y robótica (11),

— Vista su Resolución, de 12 de febrero de 2020, sobre los procesos automatizados de toma de decisiones: garantizar la protección de los consumidores y la libre circulación de bienes y servicios (12),

— Visto el informe, de 8 de abril de 2019, del Grupo de expertos de alto nivel sobre inteligencia artificial titulado «Directrices éticas para una IA fiable»,

— Visto el informe, de 8 de abril de 2019, del Grupo de expertos de alto nivel sobre inteligencia artificial titulado «Una definición de la inteligencia artificial: principales capacidades y disciplinas científicas»,

— Visto el informe, de 26 de junio de 2019, del Grupo de expertos de alto nivel sobre inteligencia artificial titulado «Recomendaciones estratégicas y de inversión para una IA fiable»,

— Visto el informe, de 21 de noviembre de 2019, del Grupo de expertos sobre responsabilidad y nuevas tecnologías

 —Formación sobre nuevas tecnologías, titulado «Liability for artificial intelligence and other emerging digital technologies» (Responsabilidad civil sobre inteligencia artificial y otras tecnologías digitales emergentes),

— Visto el estudio de evaluación del valor añadido europeo realizado por el Servicio de Estudios Parlamentarios (EPRS) titulado «Civil liability regime for artificial intelligence: European added value assessment» (Régimen de responsabilidad civil en materia de inteligencia artificial: valor añadido europeo) (13),

— Vista el documento informativo de STOA del Servicio de Estudios del Parlamento Europeo, de junio de 2016, sobre reflexiones éticas y jurídicas en materia de robótica (14),

— Visto el estudio de la Dirección General de Políticas Interiores del Parlamento Europeo, de octubre de 2016, para la Comisión de Asuntos Jurídicos, sobre normas de Derecho civil europeo en materia de robótica (15),

— Vistos los artículos 47 y 54 de su Reglamento interno,

— Vistas las opiniones de la Comisión de Mercado Interior y Protección del Consumidor y de la Comisión de Transportes y Turismo,

— Visto el informe de la Comisión de Asuntos Jurídicos (A9-0178/2020),

A. Considerando que el concepto de «responsabilidad civil» desempeña un importante doble papel en nuestra vida cotidiana: por una parte, garantiza que una persona que haya sufrido un daño o perjuicio tenga derecho a reclamar y recibir una indemnización a quien se haya demostrado que es responsable de dicho daño o perjuicio y, por otra parte, proporciona incentivos económicos para que las personas físicas o jurídicas eviten en primer lugar causar daños o perjuicios o consideren en su comportamiento el riesgo de tener que pagar una indemnización;

B. Considerando que cualquier marco jurídico en materia de responsabilidad civil orientado al futuro debe infundir confianza en la seguridad, fiabilidad y coherencia de los productos y servicios, incluidas las tecnologías digitales, a fin de lograr un equilibrio entre la protección eficaz y equitativa de las potenciales víctimas de daños o perjuicios y, al mismo tiempo, ofrecer un margen de maniobra suficiente para posibilitar a las empresas, y en particular a las pequeñas y medianas empresas, el desarrollo de nuevas tecnologías, productos o servicios; que esto ayudará a generar confianza ya crear estabilidad para la inversión; que, en última instancia, el objetivo de cualquier marco de responsabilidad civil debe ser ofrecer seguridad jurídica a todas las partes, ya sea el productor, el operador, la persona afectada o cualquier otro tercero;

C. Considerando que el ordenamiento jurídico de un Estado miembro puede modular sus normas sobre responsabilidad civil para determinados agentes o hacerlas más estrictas para determinadas actividades; que la responsabilidad objetiva significa que una parte puede ser considerada responsable pese a la ausencia de culpa; que, en muchas legislaciones nacionales en materia de responsabilidad civil, la parte demandada es considerada objetivamente responsable si un riesgo que dicha parte haya creado para el público, por ejemplo, mediante automóviles o actividades peligrosas, o un riesgo que no pueda controlar, como el originado por animales, resulta en un daño o perjuicio;

D. Considerando que cualquier legislación futura de la Unión que tenga por objeto la atribución expresa de responsabilidad en lo que se refiere a sistemas de inteligencia artificial (IA) debe ir precedida de un análisis y una consulta con los Estados miembros sobre el cumplimiento de condiciones económicas, jurídicas y sociales por parte del acto legislativo propuesto;

E. Considerando que la cuestión de un régimen de responsabilidad civil en materia de IA debe someterse a un amplio debate público que tenga en cuenta todos los intereses en juego, en particular los aspectos éticos, jurídicos, económicos y sociales, a fin de evitar las confusiones y los temores injustificados que esa tecnología pueda causar entre los ciudadanos; que el estudio cuidadoso de las consecuencias de cualquier nuevo marco normativo para todos los agentes en una evaluación de impacto debe ser un requisito previo para adoptar nuevas medidas legislativas;

F. Considerando que el concepto de sistemas de IA comprende un amplio grupo de tecnologías distintas, incluidos la simple estadística, el aprendizaje automático y el aprendizaje profundo;

G. Considerando que la utilización del término «toma de decisiones automatizada» podría evitar la posible ambigüedad del término IA; que la «toma de decisiones automatizada» implica que un usuario delegue inicialmente una decisión, en su totalidad o en parte, en una entidad mediante la utilización de un programa informático o de un servicio; que dicha entidad, a su vez, utiliza modelos de toma de decisiones ejecutados automáticamente para llevar a cabo una acción en nombre de un usuario o para informar las decisiones del usuario a la hora de realizar una acción;

H. Considerando que ciertos sistemas de IA presentan importantes retos jurídicos para el actual marco de responsabilidad civil y podrían dar lugar a situaciones en las que su opacidad podría hacer extremadamente costoso, o incluso imposible, determinar quién controlaba el riesgo asociado al sistema de IA o qué código, entrada o datos han provocado en última instancia el funcionamiento lesivo; que este factor podría dificultar la identificación de la relación entre el daño o perjuicio y el comportamiento que lo causa, con el resultado de que las víctimas podrían no recibir una indemnización adecuada;

I. Considerando que los retos jurídicos se derivan también de la conectividad entre un sistema de IA y otros sistemas ya sean o no de IA, su dependencia de los datos externos, su vulnerabilidad frente a las violaciones de la ciberseguridad y el diseño de sistemas de IA cada vez más autónomos que usan, entre otras, técnicas de aprendizaje automático y de aprendizaje profundo;

J. Considerando que unas normas éticas firmes para los sistemas de IA combinadas con procedimientos de indemnización sólidos y justos pueden ayudar a abordar estos retos jurídicos y eliminar el riesgo de que los usuarios se muestren reticentes a aceptar la tecnología emergente; que un procedimiento de indemnización justo supone que cada persona que sufra un daño causado por sistemas de IA o que sufra un menoscabo al patrimonio causado por sistemas de IA debe tener el mismo nivel de protección que en aquellos casos en que no haya implicación de un sistema de IA; que el usuario necesita estar seguro de que el posible perjuicio causado por sistemas que utilicen IA está cubierto por un seguro adecuado y de que existe una vía jurídica definida para el resarcimiento;

K. Considerando que la seguridad jurídica es también una condición esencial para el desarrollo dinámico y la innovación de la tecnología basada en la IA, en particular para las empresas emergentes, las microempresas y las pequeñas y medianas empresas, así como para su aplicación práctica en la vida cotidiana; que el papel fundamental de las empresas emergentes, las microempresas y las pequeñas y medianas empresas, en especial en la economía europea, justifica un enfoque estrictamente proporcionado que les permita desarrollarse e innovar;

L. Considerando que la diversidad de los sistemas de IA y la amplia gama de riesgos que la tecnología plantea dificultan los esfuerzos para hallar una solución única adecuada para todo el espectro de riesgos; que, a este respecto, debe adoptarse un enfoque en el que se utilicen experimentos, proyectos piloto y espacios limitados regulatorios para elaborar soluciones proporcionadas y con base empírica que aborden situaciones y sectores específicos cuando sea necesario;

Introducción

1. Considera que el reto relacionado con la introducción de sistemas de IA en la sociedad, el lugar de trabajo y la economía es una de las cuestiones más importantes de la agenda política actual; que las tecnologías basadas en la IA podrían y deberían procurar mejorar nuestras vidas en casi todos los sectores, desde la esfera personal (por ejemplo, sector de los transportes, educación personalizada, asistencia a personas vulnerables, programas de preparación física y concesión de créditos) al entorno de trabajo (por ejemplo, reducción de tareas tediosas y repetitivas) y a los retos mundiales (por ejemplo, la emergencia climática, la asistencia sanitaria, la nutrición y la logística);

2. Cree firmemente que, para aprovechar eficazmente las ventajas e impedir posibles malos usos de los sistemas de IA, así como para evitar la fragmentación normativa en la Unión, es fundamental una legislación uniforme, basada en principios y preparada para el futuro en toda la Unión para todos los sistemas de IA; opina que, si bien son preferibles reglamentaciones sectoriales específicas para la amplia gama de posibles aplicaciones, parece necesario contar con un marco jurídico horizontal y armonizado basado en principios comunes con el fin de garantizar la seguridad jurídica, establecer una igualdad de normas en toda la Unión y proteger eficazmente nuestros valores europeos y los derechos de los ciudadanos;

3. Afirma que el mercado único digital necesita una armonización plena puesto que el ámbito digital se caracteriza por una rápida dinámica transfronteriza y flujos de datos internacionales; considera que la Unión solo alcanzará los objetivos de mantener su soberanía digital y de impulsar la innovación digital en Europa con normas coherentes y comunes en consonancia con una cultura de innovación;

4. Observa que la carrera mundial de la IA ya está en marcha y que la Unión debe asumir el liderazgo en ella explotando su potencial científico y tecnológico; hace especial hincapié en que el desarrollo de tecnología no debe socavar la protección de los usuarios contra el perjuicio que puedan causar dispositivos y sistemas que utilicen IA; alienta la promoción de las normas de la Unión en materia de responsabilidad civil a escala internacional;

5. Cree firmemente que las nuevas normas comunes para los sistemas de IA solo deben adoptar la forma de un reglamento; considera que la cuestión de la responsabilidad civil en caso de daño o perjuicio causado por un sistema de IA es uno de los aspectos clave que deben abordarse en este contexto;

Responsabilidad civil e inteligencia artificial

6. Cree que no es necesaria una revisión completa de los regímenes de responsabilidad civil que funcionan bien, pero que, no obstante, la complejidad, la conectividad, la opacidad, la vulnerabilidad, la capacidad de ser modificados mediante actualizaciones, la capacidad de autoaprendizaje y la autonomía potencial de los sistemas de IA, así como la multitud de agentes involucrados representan un reto importante para la eficacia de las disposiciones del marco de responsabilidad civil de la Unión y nacional; considera que es necesario realizar adaptaciones específicas y coordinadas de los regímenes de responsabilidad civil para evitar situaciones en las que personas que sufran un daño o un menoscabo a su patrimonio acaben sin indemnización;

7. Observa que todas las actividades, dispositivos o procesos físicos o virtuales gobernados por sistemas de IA pueden ser técnicamente la causa directa o indirecta de un daño o un perjuicio, pero casi siempre son el resultado de que alguien ha construido o desplegado los sistemas o interferido en ellos; observa, a este respecto, que no es necesario atribuir personalidad jurídica a los sistemas de IA; opina que la opacidad, la conectividad y la autonomía de los sistemas de IA podrían dificultar o incluso imposibilitar en la práctica la trazabilidad de acciones perjudiciales específicas de los sistemas de IA hasta una intervención humana específica o decisiones de diseño; recuerda que, de conformidad con conceptos de responsabilidad civil ampliamente aceptados, se puede eludir, no obstante, este obstáculo haciendo responsables a las diferentes personas de toda la cadena de valor que crean, mantienen o controlan el riesgo asociado al sistema de IA;

8. Considera que la Directiva sobre responsabilidad por los daños causados por productos defectuosos ha demostrado ser, durante más de treinta años, un medio eficaz para obtener una indemnización por un daño causado por un producto defectuoso, pero que, no obstante, debe revisarse para adaptarla al mundo digital y abordar los retos que plantean las tecnologías digitales emergentes, para así garantizar un elevado nivel de protección efectiva de los consumidores y de seguridad jurídica para los consumidores y las empresas, a la vez que se evitan elevados costes y riesgos para las pymes y las empresas emergentes; insta a la Comisión a que evalúe si la Directiva sobre responsabilidad por los daños causados por productos defectuosos debe transformarse en un reglamento, a que aclare la definición de «productos», determinando para ello si el contenido digital y los servicios digitales entran dentro de su ámbito de aplicación, y a que considere la posibilidad de adaptar conceptos como «daño», «defecto» y «productor»; opina que, en aras de la seguridad jurídica en toda la Unión, tras la revisión de la Directiva, el concepto de «productor» debe incluir a fabricantes, desarrolladores, programadores, prestadores de servicios y operadores finales; pide a la Comisión que considere la posibilidad de revertir las normas que rigen la carga de la prueba para los daños ocasionados por las tecnologías digitales emergentes en casos claramente definidos y tras una adecuada evaluación; señala la importancia de garantizar que el acto de la Unión actualizado se limite a problemas claramente identificados para los que ya existen soluciones viables y, al mismo tiempo, permita la inclusión de futuros avances tecnológicos, incluidos los avances basados en programas informáticos libres y de código abierto; señala que la Directiva sobre responsabilidad por los daños causados por productos defectuosos debe seguir utilizándose en relación con las reclamaciones por responsabilidad civil contra el productor de un sistema de IA defectuoso, cuando el sistema de IA cumpla los requisitos para ser considerado un producto con arreglo a dicha Directiva; subraya que cualquier actualización del marco de responsabilidad por los productos debe ir de la mano de la actualización de la Directiva 2001/95/CE del Parlamento Europeo y del Consejo, de 3 de diciembre de 2001, relativa a la seguridad general de los productos (16), a fin de garantizar que los sistemas de IA incorporen los principios de seguridad y protección desde el diseño;

9. Considera que la legislación vigente de los Estados miembros en materia de responsabilidad subjetiva ofrece, en la mayoría de los casos, un nivel de protección suficiente a las personas que sufren perjuicios causados por un tercero interferidor como un pirata informático o a las personas que sufren menoscabo al patrimonio por ese tercero, ya que esta interferencia por regla general constituye una acción de responsabilidad civil subjetiva; observa que solo en casos específicos, incluidos aquellos en los que el tercero no sea rastreable o sea insolvente, parece necesario añadir normas en materia de responsabilidad civil para complementar la legislación nacional en materia de responsabilidad civil existente;

10. Considera, por consiguiente, que el presente informe debe centrarse en las reclamaciones por responsabilidad civil contra el operador de un sistema de IA; afirma que la responsabilidad civil del operador se justifica por el hecho de que controla un riesgo asociado al sistema de IA, comparable al del propietario de un automóvil; considera que, debido a la complejidad y conectividad de un sistema de IA, el operador será, en muchos casos, el primer punto de contacto visible para la persona afectada;

Responsabilidad civil del operador

11. Opina que las normas en materia de responsabilidad civil que afecten al operador deben cubrir todas las operaciones de los sistemas de IA, independientemente de dónde se lleve a cabo la operación y de que esta sea física o virtual; observa que las operaciones en espacios públicos que exponen a muchas personas a un riesgo constituyen, sin embargo, casos que requieren una consideración más profunda; considera que a menudo las víctimas potenciales de daños o perjuicios no son conscientes de la operación y no suelen disponer de derechos a reclamar por responsabilidad contractual contra el operador; señala que, si se produce un daño o perjuicio, esas personas solo tendrían una pretensión por responsabilidad subjetiva y podrían tener dificultades para demostrar la culpa del operador del sistema de IA, por lo que podrían fracasar las correspondientes demandas por responsabilidad civil;

12. Considera adecuado que por «operador» se entienda tanto al operador final como al operador inicial, siempre que a este último no se le aplique la Directiva sobre responsabilidad por los daños causados por productos defectuosos; señala que por «operador final» debe entenderse la persona física o jurídica que ejerce un grado de control sobre un riesgo asociado a la operación y el funcionamiento del sistema de IA y se beneficia de su funcionamiento; afirma que por «operador inicial» debe entenderse la persona física o jurídica que define, de forma continuada, las características de la tecnología, proporciona datos y un servicio de apoyo final de base esencial y, por tanto, ejerce también un grado de control sobre un riesgo asociado a la operación y el funcionamiento del sistema de IA; considera que por «ejercicio del control» se entiende cualquier acción del operador que influya en el funcionamiento del sistema de IA y, por consiguiente, en la medida en que expone a terceros a sus potenciales riesgos; considera que esas acciones podrían afectar al funcionamiento de un sistema de IA desde el inicio al fin, al determinar la entrada, la salida o los resultados, o podrían cambiar las funciones o procesos específicos dentro del sistema de IA;

13. Señala que podrían darse situaciones en las que haya más de un operador, por ejemplo, un operador final y un operador inicial; considera que, en ese caso, todos los operadores deben ser responsables civiles solidarios, aunque teniendo al mismo tiempo derecho a reclamar en la vía de regreso unos de otros de forma proporcional; opina que los porcentajes de responsabilidad deben venir determinados por los respectivos niveles de control que tengan los operadores sobre el riesgo relacionado con la operación y el funcionamiento del sistema de IA; considera que debe mejorarse la trazabilidad de los productos con el fin de identificar mejor a los que intervienen en las distintas fases;

Normas en materia de responsabilidad civil diferentes para riesgos diferentes

14. Reconoce que el tipo de sistema de IA sobre el que el operador ejerce control es un factor determinante en lo que respecta a la responsabilidad; observa que un sistema de IA que conlleve un alto riesgo inherente y actúe de manera autónoma potencialmente pone en peligro en mucha mayor medida al público en general; considera que, habida cuenta de los retos jurídicos que plantean los sistemas de IA para los regímenes de responsabilidad civil existentes, parece razonable establecer un régimen común de responsabilidad objetiva para los sistemas de IA autónomos de alto riesgo; subraya que este enfoque basado en el riesgo, que puede incluir varios niveles de riesgo, debe basarse en criterios claros y una definición adecuada de «alto riesgo», así como ofrecer seguridad jurídica;

15. Cree que un sistema de IA presenta un alto riesgo cuando su funcionamiento autónomo conlleva un potencial significativo de causar daño a una o más personas, de forma aleatoria y yendo más allá de lo que cabe esperar razonablemente; considera que, a la hora de determinar si un sistema de IA es de alto riesgo, también debe tenerse en cuenta el sector en el que cabe esperar que surjan riesgos importantes y la naturaleza de las actividades realizadas; considera que la magnitud del potencial depende de la relación entre la gravedad del posible daño, la probabilidad de que el riesgo cause un daño o un perjuicio y el modo en que se utiliza el sistema de IA;

16. Recomienda que todos los sistemas de IA de alto riesgo se enumeren de forma exhaustiva en un anexo del Reglamento propuesto; reconoce que, dado el rápido desarrollo tecnológico y los conocimientos técnicos necesarios, la Comisión debe revisar dicho anexo sin demoras injustificadas y, a más tardar, cada seis meses y, en caso necesario, modificarlo mediante un acto delegado; cree que la Comisión debe cooperar estrechamente con un comité permanente de nueva creación, similar al Comité Permanente sobre Precursores o al Comité Técnico sobre Vehículos de Motor ya existentes, que incluyen a expertos nacionales de los Estados miembros y a las partes interesadas; considera que la composición equilibrada del Grupo de expertos de alto nivel sobre la inteligencia artificial podría servir de ejemplo para la formación del grupo de partes interesadas, con la suma de expertos en ética, antropólogos, sociólogos y especialistas en salud mental; opina también que el Parlamento Europeo debe nombrar expertos consultivos para asesorar al comité permanente de nueva creación;

17. Señala que el desarrollo de tecnologías basadas en la IA es muy dinámico y está en continua aceleración; subraya que, a fin de garantizar una protección adecuada a los usuarios, se necesita un enfoque acelerado para analizar los potenciales riesgos de nuevos dispositivos y sistemas que utilicen los sistemas de IA que surjan en el mercado europeo; recomienda una simplificación en la mayor medida posible de todos los procedimientos en este sentido; propone, además, que la evaluación por parte de la Comisión de si un sistema de IA presenta un alto riesgo debe comenzar al mismo tiempo que la evaluación de la seguridad de los productos a fin de evitar una situación en la que un sistema de IA de alto riesgo ya esté aprobado para su comercialización pero aún no esté clasificado como de alto riesgo y, por tanto, funcione sin cobertura de seguro obligatoria;

18. Señala que la Comisión debe evaluar de qué manera la autoridad investigadora podría acceder a los datos recogidos, registrados o almacenados en sistemas de IA de alto riesgo y hacer uso de ellos a efectos de recabar pruebas en caso de daño o perjuicio causado por dicho sistema, y cómo podría mejorarse la trazabilidad y auditabilidad de dichos datos, teniendo en cuenta al mismo tiempo los derechos fundamentales y el derecho a la intimidad;

19. Afirma que, en consonancia con los sistemas de responsabilidad objetiva de los Estados miembros, la propuesta de Reglamento debe ser de aplicación a las violaciones de derechos importantes, jurídicamente protegidos, a la vida, la salud, la integridad física y la propiedad, y establecer los importes y el alcance de la indemnización, así como el plazo de prescripción; opina que el Reglamento propuesto debe incluir también los daños inmateriales significativos que den lugar a una pérdida económica comprobable por encima de un umbral, armonizado en el Derecho de la Unión en materia de responsabilidad civil, que equilibre el acceso a la justicia de las personas afectadas y los intereses de otras personas interesadas; insta a la Comisión a que revalúe y ajuste en el Derecho de la Unión los umbrales relativos a los daños y perjuicios; considera que la Comisión debe analizar en profundidad las tradiciones jurídicas de todos los Estados miembros y sus legislaciones nacionales vigentes que conceden una indemnización por daños inmateriales, a fin de evaluar si la inclusión de los daños inmateriales en actos legislativos específicos sobre IA es necesaria y si contradice el marco jurídico vigente de la Unión o socava el Derecho nacional de los Estados miembros;

20. Precisa que todas las actividades, dispositivos o procesos gobernados por sistemas de IA que ocasionen un daño o perjuicio pero no estén incluidos en el anexo del Reglamento propuesto deben seguir estando sujetos a la responsabilidad subjetiva; cree, no obstante, que la persona afectada debe poder acogerse a una presunción de culpa del operador, quien debe poder quedar eximido de culpa demostrando que ha observado el deber de diligencia;

21. Considera que un sistema de IA que aún no haya sido evaluado por la Comisión y el comité permanente de nueva creación y que, por lo tanto, todavía no esté clasificado como de alto riesgo ni incluido en la lista que figura en el anexo del Reglamento propuesto, debe, no obstante, quedar sujeto, como excepción al sistema previsto en el apartado 20, a una responsabilidad objetiva si ha causado incidentes reiterados que den lugar a un daño o un perjuicio grave; señala que, de ser ese el caso, la Comisión también debe evaluar, sin demora indebida, la necesidad de revisar dicho anexo para añadir el sistema de IA en cuestión a la lista; opina que, si, a raíz de dicha evaluación, la Comisión decide incluir dicho sistema de IA en la lista, dicha inclusión debe tener efecto retroactivo a partir del momento del primer incidente probado causado por dicho sistema que haya ocasionado un daño o un perjuicio grave;

22. Pide a la Comisión que evalúe la necesidad de disposiciones jurídicas a escala de la Unión en materia de contratos para evitar la inclusión de cláusulas contractuales de exención de la responsabilidad, también en las relaciones entre empresas y entre empresas y la administración;

Seguros y sistemas de IA

23. Considera que la cobertura de la responsabilidad civil es uno de los factores clave que define el éxito de las nuevas tecnologías, productos y servicios; observa que una cobertura de la responsabilidad civil adecuada es también esencial para garantizar que el público pueda confiar en la nueva tecnología, a pesar de las posibilidades de sufrir un daño o de hacer frente a demandas judiciales por parte de las personas afectadas; observa, al mismo tiempo, que este sistema regulador se centra en la necesidad de explotar y potenciar las ventajas de los sistemas de IA, a la vez que se establecen sólidas salvaguardias;

24. Opina que, sobre la base del potencial significativo para causar un daño o un perjuicio y teniendo en cuenta la Directiva 2009/103/CE del Parlamento Europeo y del Consejo, de 16 de septiembre de 2009, relativa al seguro de la responsabilidad civil que resulta de la circulación de vehículos automóviles, así como al control de la obligación de asegurar esta responsabilidad (17), todos los operadores de sistemas de IA de alto riesgo enumerados en el anexo del Reglamento propuesto deben ser titulares de un seguro de responsabilidad civil; considera que ese régimen de seguro obligatorio para los sistemas de IA de alto riesgo debe cubrir los importes y el alcance de la indemnización establecidos por el Reglamento propuesto; es consciente de que actualmente dicha tecnología es todavía muy inusual, ya que presupone un alto grado de toma de decisiones autónoma, y de que, por consiguiente, los debates actuales están orientados sobre todo al futuro; cree, no obstante, que la incertidumbre relacionada con los riesgos no debe hacer que las primas de seguro sean prohibitivamente elevadas y convertirse así en un obstáculo para la investigación y la innovación;

25. Cree que un mecanismo de indemnización a escala de la Unión, financiado con fondos públicos, no es la manera adecuada de colmar posibles lagunas en materia de seguros; considera que la falta de datos sobre los riesgos asociados a los sistemas de IA, unida a la incertidumbre sobre su evolución en el futuro, dificulta al sector de los seguros elaborar productos de seguro nuevos o adaptados; considera que es probable que dejar el desarrollo de un seguro obligatorio plenamente al mercado resulte en un enfoque de «talla única» con primas desproporcionadamente elevadas y los incentivos equivocados, alentando a los operadores a optar por el seguro más barato en lugar de por la mejor cobertura, lo que podría convertirse en un obstáculo para la investigación y la innovación; considera que la Comisión debe colaborar estrechamente con el sector de los seguros para estudiar la forma de poder utilizar datos y modelos innovadores para crear pólizas de seguro que ofrezcan una cobertura adecuada a un precio asequible;

Aspectos finales

26. Pide a la Comisión que le someta, sobre la base del artículo 225 del Tratado de Funcionamiento de la Unión Europea, una propuesta de Reglamento sobre la responsabilidad civil por el funcionamiento de los sistemas de inteligencia artificial, siguiendo las recomendaciones que se recogen en el anexo;

27. Considera que la propuesta solicitada carece de repercusiones financieras;

28. Encarga a su presidente que transmita la presente Resolución y las recomendaciones que se recogen en el anexo a la Comisión y al Consejo.

ANEXO A LA RESOLUCIÓN:

RECOMENDACIONES DETALLADAS PARA LA ELABORACIÓN DE UN REGLAMENTO DEL PARLAMENTO EUROPEO Y DEL CONSEJO RELATIVO A LA RESPONSABILIDAD CIVIL POR EL FUNCIONAMIENTO DE LOS SISTEMAS DE INTELIGENCIA ARTIFICIAL

A. PRINCIPIOS Y OBJETIVOS DE LA PROPUESTA SOLICITADA

El presente informe aborda un aspecto importante de la digitalización que viene configurado por las actividades transfronterizas, la competencia mundial y consideraciones sociales básicas. Los siguientes principios deben servir de orientación:

1. Un mercado único digital genuino requiere una armonización completa mediante un reglamento.

2. Los nuevos retos jurídicos que plantea el desarrollo de sistemas de inteligencia artificial (IA) deben abordarse estableciendo la máxima seguridad jurídica a lo largo de la cadena de responsabilidad, en particular para el productor, el operador, la persona afectada y cualquier otro tercero.

3. No debe haber una sobrerregulación y debe evitarse la carga burocrática, ya que, de lo contrario, se obstaculizaría la innovación europea en materia de IA, especialmente en caso de que la tecnología, los productos o los servicios sean desarrollados por pymes o empresas emergentes.

4. Las normas de responsabilidad civil para la IA deben tratar de lograr un equilibrio entre la protección del público, por una parte, y los incentivos empresariales para invertir en innovación, especialmente en sistemas de IA, por otra.

5. En lugar de sustituir los regímenes de responsabilidad civil existentes, que funcionan correctamente, deben realizar algunos ajustes necesarios mediante la introducción de ideas nuevas y orientadas al futuro.

6. La futura propuesta de Reglamento y la Directiva sobre responsabilidad por los daños causados por productos defectuosos constituyen los dos pilares de un marco común de responsabilidad civil para los sistemas de IA y requieren una estrecha coordinación y concertación entre todos los agentes políticos, a nivel nacional y de la Unión.

7. Los ciudadanos deben tener derecho al mismo nivel de protección y de derechos, independientemente de si el daño es causado por un sistema de IA o no, o de si tiene lugar física o virtualmente, de tal forma que aumente su confianza en la nueva tecnología.

8. En la futura propuesta de Reglamento deben tenerse en cuenta tanto el daño material como el daño inmaterial. Sobre la base, entre otros documentos, de su Informe de 19 de febrero de 2020 sobre las repercusiones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica, se pide a la Comisión Europea que analice en profundidad las tradiciones jurídicas de todos los Estados miembros, así como las disposiciones legislativas vigentes que conceden una indemnización por daños inmateriales, a fin de evaluar si la inclusión de los daños inmateriales en la futura propuesta de Reglamento es jurídicamente sólida y necesaria desde el punto de vista de la persona afectada. De acuerdo con la información actualmente disponible, el Parlamento considera que debe incluirse el daño inmaterial significativo si la persona afectada sufre una pérdida económica apreciable, es decir, una pérdida económica comprobable.

B. TEXTO DE LA PROPUESTA SOLICITADA

Propuesta de REGLAMENTO DEL PARLAMENTO EUROPEO Y DEL CONSEJO relativo a la responsabilidad civil por el funcionamiento de los sistemas de inteligencia artificial

EL PARLAMENTO EUROPEO Y EL CONSEJO DE LA UNIÓN EUROPEA,

Visto el Tratado de Funcionamiento de la Unión Europea, en particular, su artículo 114,

Vista la propuesta de la Comisión Europea,

Previa transmisión del proyecto de acto legislativo a los Parlamentos nacionales,

Visto el dictamen del Comité Económico y Social Europeo (1),

De conformidad con el procedimiento legislativo ordinario (2),

Considerando lo siguiente:

(1) El concepto de «responsabilidad civil» desempeña un importante doble papel en nuestra vida cotidiana: por una parte, garantiza que una persona que haya sufrido un daño o perjuicio tenga derecho a reclamar una indemnización a quien se haya considerado responsable de dicho daño o perjuicio y, por otra parte, proporciona incentivos económicos para que las personas eviten en primer lugar causar daños o perjuicios. Cualquier marco en materia de responsabilidad civil debe aspirar a infundir confianza en la seguridad, fiabilidad y coherencia de los productos y servicios, incluidas las tecnologías digitales emergentes, como la inteligencia artificial (IA), el internet de las cosas o la robótica, a fin de lograr un equilibrio entre la protección eficaz de las potenciales víctimas de un daño o un perjuicio y, al mismo tiempo, ofrecer un margen de maniobra suficiente para posibilitar el desarrollo de nuevas tecnologías, productos o servicios.

(2) En particular al principio del ciclo de vida de los nuevos productos y servicios, tras haber sido probados previamente, existe cierto nivel de riesgo para el usuario, así como para terceras personas, de que algo no funcione correctamente. Este proceso de prueba y error también es, al mismo tiempo, un factor clave para el progreso técnico, sin el cual la mayor parte de nuestras tecnologías no existirían. Hasta ahora, los riesgos asociados a nuevos productos y servicios se han visto atenuados adecuadamente por la sólida legislación en materia de seguridad de los productos y las normas sobre responsabilidad civil.

(3) El auge de la IA plantea, sin embargo, un reto importante para los actuales marcos de responsabilidad civil. La utilización de sistemas de IA en nuestra vida cotidiana lleva a situaciones en las que su opacidad (el elemento «caja negra») y el gran número de agentes que intervienen en su ciclo de vida podrían hacer extremadamente costoso, o incluso imposible, determinar quién controlaba el riesgo asociado al uso del sistema de IA en cuestión o qué código o entrada ha provocado en última instancia el funcionamiento lesivo. Esta dificultad se ve agravada por la conectividad entre un sistema de IA y otros sistemas ya sean o no de IA, por su dependencia de los datos externos, por su vulnerabilidad frente a las violaciones de la ciberseguridad y por la creciente autonomía de los sistemas de IA debido a las capacidades de aprendizaje automático y de aprendizaje profundo. Además de estas características complejas y las posibles vulnerabilidades, los sistemas de IA también podrían utilizarse para causar daños graves, por ejemplo, poniendo en peligro la dignidad humana y los valores y libertades europeos mediante el seguimiento de las personas contra su voluntad, la introducción de sistemas de crédito social o la toma de decisiones sesgadas en materia de seguro de enfermedad, concesión de crédito, autos judiciales, contratación o empleo o mediante la construcción de sistemas armamentísticos autónomos letales.

(4) Es importante señalar que las ventajas del despliegue de sistemas de IA compensarán con creces sus desventajas. Ayudarán a combatir el cambio climático de manera más eficaz, a mejorar los exámenes médicos y las condiciones de trabajo, a integrar mejor a las personas con discapacidad y las personas mayores en la sociedad y a ofrecer cursos de educación a medida para todo tipo de estudiantes. Para aprovechar las distintas oportunidades tecnológicas e impulsar la confianza de los ciudadanos en el uso de los sistemas de IA, al mismo tiempo que se evitan situaciones perjudiciales, la mejor manera de avanzar son unas normas éticas firmes combinadas con procedimientos de indemnización justos y sólidos.

(5) También es necesario un régimen de responsabilidad civil adecuado para contrarrestar la infracción de las normas de seguridad. No obstante, el régimen de responsabilidad civil establecido en el presente Reglamento debe tener en cuenta todos los intereses en juego. El estudio cuidadoso de las consecuencias de cualquier nuevo marco normativo  para las pequeñas y medianas empresas (pymes) y las empresas emergentes es un requisito previo a la adopción de cualquier nueva medida legislativa. El papel fundamental que esas empresas desempeñan en la economía europea justifica un enfoque estrictamente proporcionado para permitirles desarrollarse e innovar. Por otra parte, las víctimas de daños o perjuicios causados por sistemas de IA deben tener derecho a resarcimiento y a la plena indemnización de los daños o perjuicios que hayan sufrido.

(6) Cualquier cambio necesario del marco jurídico vigente debe comenzar con la aclaración de que los sistemas de IA no tienen personalidad jurídica ni conciencia humana, y que su única función es servir a la humanidad. Muchos sistemas de IA tampoco son tan diferentes de otras tecnologías basadas, a veces, en programas informáticos aún más complejos. En última instancia, la gran mayoría de los sistemas de IA se utiliza para efectuar tareas triviales, sin riesgo o con riesgos mínimos para la sociedad. La utilización del término «toma de decisiones automatizada» podría evitar la posible ambigüedad del término IA. Ese término describe una situación en la que un usuario delega inicialmente una decisión, en su totalidad o en parte, en una entidad mediante un programa informático o un servicio. Esa entidad, a su vez, utiliza modelos de toma de decisiones ejecutados automáticamente para llevar a cabo una acción en nombre de un usuario o para informar la decisión del usuario a la hora de realizar una acción;

(7) Sin embargo, existen también sistemas de IA que se desarrollan y despliegan de manera crítica y se basan en tecnologías como redes neuronales y procesos de aprendizaje profundo. Su opacidad y autonomía podrían dificultar la trazabilidad de acciones específicas hasta decisiones humanas específicas en su diseño o en su funcionamiento. Un operador de un sistema de IA de este tipo podría, por ejemplo, argumentar que la actividad, el dispositivo o el proceso físico o virtual que causa el daño o perjuicio se encontraba fuera de su control debido a que fue causado por un funcionamiento autónomo de su sistema de IA. Además, el mero funcionamiento de un sistema de IA autónomo no debe constituir un motivo suficiente para admitir una demanda por responsabilidad civil. Por consiguiente, puede haber casos de responsabilidad civil en los que la atribución de la responsabilidad puede ser injusta o ineficiente, o en los que una persona que sufra un daño o perjuicio causado por un sistema de IA no pueda demostrar la culpa del productor, de un tercero interferidor o del operador y acabe sin indemnización alguna.

(8) No obstante, debe quedar siempre claro que la persona que cree el sistema de IA, lo mantenga, lo controle o interfiera en él debe ser responsable del daño o perjuicio que cause la actividad, el dispositivo o el proceso. Esto se desprende de conceptos de justicia en materia de responsabilidad civil ampliamente aceptados y de carácter general en virtud de los cuales la persona que crea o mantiene un riesgo para el público es responsable si dicho riesgo causa un daño o un perjuicio y, por lo tanto, debe minimizar ex ante o indemnizar ex post dicho riesgo. Por consiguiente, el auge de los sistemas de IA no implica la necesidad de revisar completamente las normas en materia de responsabilidad civil en toda la Unión. Unos ajustes concretos de la legislación vigente y la introducción de nuevas disposiciones bien ponderadas y orientadas serían suficientes para hacer frente a los retos que plantea la IA, a fin de evitar la fragmentación normativa y garantizar la armonización de la legislación en materia de responsabilidad civil en toda la Unión en relación con la IA.

(9) La Directiva 85/374/CEE del Consejo sobre responsabilidad por los daños causados por productos defectuosos (3) ha demostrado ser durante más de treinta años un medio eficaz para obtener una indemnización por los perjuicios causados por un producto defectuoso. Por lo tanto, también debe utilizarse en relación con las reclamaciones por responsabilidad civil presentadas contra el productor de un sistema de IA defectuoso por una parte que sufra un daño o perjuicio. En consonancia con los principios de mejora de la legislación de la Unión, todo ajuste legislativo necesario debe debatirse durante la revisión necesaria de dicha Directiva. La legislación vigente de los Estados miembros en materia de responsabilidad subjetiva también ofrece, en la mayoría de los casos, un nivel de protección suficiente a las personas que sufren un daño o un perjuicio causado por un tercero interferidor, ya que esta interferencia por regla general constituye una acción de responsabilidad subjetiva en la que el tercero utiliza el sistema de IA para causar daños. Por consiguiente, el presente Reglamento debe centrarse en las reclamaciones contra el operador de un sistema de IA.

(10) En el marco del presente Reglamento, la responsabilidad civil del operador se basa en el hecho de que ejerce un grado de control sobre un riesgo asociado al funcionamiento y la operación de un sistema de IA, comparable al del propietario de un vehículo. Cuanto mayor sea el grado de sofisticación y de autonomía de un sistema, mayor será el impacto de la definición y la alteración de los algoritmos, por ejemplo a través de actualizaciones constantes. Dado

que a menudo podría considerarse, de manera significativa, que hay más de una persona «operando» el sistema de IA, con arreglo al presente Reglamento el término «operador» debe entenderse que comprende tanto al operador final como al final. Aunque en general el operador final parece ser la persona que decide «principalmente» el uso del sistema de IA, el operador inicial podría, de hecho, tener un grado de control más elevado sobre los riesgos operativos. Si el operador inicial también tiene la condición de «productor» en el sentido del artículo 3 de la Directiva sobre responsabilidad por los daños causados por productos defectuosos, debe aplicársele dicha Directiva. Si solo hay un operador y dicho operador es también el productor del sistema de IA, el presente Reglamento debe prevalecer sobre la Directiva sobre responsabilidad por los daños causados por productos defectuosos.

(11) Si un usuario, es decir, la persona que utiliza el sistema de IA, está involucrado en el incidente que causa el daño, solo debe ser considerado responsable en virtud del presente Reglamento si el usuario también tiene la condición de operador. En caso contrario, el grado de contribución manifiestamente imprudente o dolosa del usuario al riesgo podría conducir a la responsabilidad subjetiva del usuario ante el demandante. Los derechos del consumidor aplicables del usuario no deben verse afectados.

(12) El presente Reglamento debe permitir a la persona afectada presentar demandas por responsabilidad civil a lo largo de la cadena de responsabilidad y de todo el ciclo de vida de un sistema de IA. También debe abarcar todos los sistemas de IA, independientemente del lugar de operación y de si esta es de carácter físico o virtual. Sin embargo, la mayoría de las demandas por responsabilidad civil en virtud del presente Reglamento deben abordar casos de responsabilidad ante terceros en los que un sistema de IA funciona en un espacio público y expone a numerosas personas a un riesgo. En este tipo de situaciones, las personas afectadas a menudo no estarán al tanto del sistema de IA que se utiliza ni tendrán una relación contractual o jurídica con el operador. Por consiguiente, la utilización del sistema de IA los coloca en una situación en la que, en caso de daño o perjuicio, solo pueden pretender reclamar la responsabilidad subjetiva del operador del sistema de IA, al tiempo que se enfrentan a graves dificultades para demostrar la culpa del operador.

(13) El tipo de sistema de IA sobre el que el operador ejerce el control es un factor determinante. Un sistema de IA que implique un alto riesgo puede poner en peligro al usuario o al público en un grado mucho más elevado y de manera aleatoria y yendo más allá de lo que cabe esperar razonablemente. Esto significa que, al inicio del funcionamiento autónomo del sistema de IA, la mayoría de las personas potencialmente afectadas no son ni conocidas ni identificables (por ejemplo, las personas que se encuentren en una plaza pública o en una casa vecina), a diferencia de lo que ocurre en el caso del funcionamiento de un sistema de IA en el que participan personas concretas, que han dado regularmente su consentimiento previo para su despliegue, por ejemplo, una intervención quirúrgica en un hospital o una demostración comercial en una tienda pequeña. La definición de la importancia del potencial de un sistema de IA de alto riesgo de causar daños o perjuicios depende de la interacción entre la finalidad de uso para la que se comercializa el sistema de IA, la forma en que se usa el sistema de IA, la gravedad del daño o perjuicio potencial, el grado de autonomía de la toma de decisiones que puede resultar en daños y de la probabilidad de que el riesgo se materialice. El grado de gravedad debe determinarse sobre la base de factores relevantes como la magnitud del daño potencial resultante del funcionamiento en las personas afectadas, incluido, en particular, el efecto en los derechos fundamentales, el número de personas afectadas, el valor total del posible perjuicio y el daño a la sociedad en su conjunto. La probabilidad del daño o perjuicio debe determinarse sobre la base de factores relevantes como el papel de los cálculos algorítmicos en el proceso de toma de decisiones, la complejidad de la decisión y la reversibilidad de los efectos. En última instancia, la forma de uso debe depender de factores relevantes como el contexto y el sector en el que opera el sistema de IA, si puede tener efectos jurídicos o fácticos sobre derechos importantes de la persona afectada jurídicamente protegidos y de si los efectos pueden evitarse razonablemente.

(14) En un anexo al Reglamento presente deben enumerarse exhaustivamente todos los sistemas de IA de alto riesgo. Habida cuenta de la rápida evolución técnica y del mercado a escala mundial, así como de los conocimientos técnicos que se necesitan para una revisión adecuada de los sistemas de IA, deben delegarse en la Comisión poderes para adoptar actos delegados con arreglo al artículo 290 del Tratado de Funcionamiento de la Unión Europea con el fin de modificar el presente Reglamento en lo que se refiere a los tipos de sistemas de IA que entrañan un alto riesgo y los sectores críticos en los que se usan. Sobre la base de las definiciones y disposiciones recogidas en el presente Reglamento, la Comisión debe revisar el anexo en el plazo más breve posible y, en todo caso cada seis meses y, si procede, modificarlo mediante actos delegados. La evaluación por parte de la Comisión de si un sistema de IA presenta un riesgo elevado debe comenzar al mismo tiempo que la evaluación de la seguridad de los productos a fin de evitar una situación en la que un sistema de IA de alto riesgo ya esté aprobado para su comercialización pero aún no esté clasificado como de alto riesgo y, por tanto, funcione sin cobertura de seguro obligatoria. Para que las empresas y los organismos de investigación dispongan de seguridad suficiente en términos de planificación e inversión, los cambios en los sectores críticos solo deben realizarse cada doce meses. Debe instarse a los operadores a que informen a la Comisión de si están trabajando en una nueva tecnología, productos o servicios que se inscriban en uno de los sectores críticos existentes previstos en el anexo y que posteriormente podrían clasificarse como sistema de IA de alto riesgo.

(15) Reviste especial importancia que la Comisión lleve a cabo consultas periódicas adecuadas con todas las partes interesadas pertinentes durante la fase preparatoria, en particular con expertos, y que esas consultas se realicen de conformidad con los principios establecidos en el Acuerdo interinstitucional, de 13 de abril de 2016, sobre la mejora de la legislación (4). La Comisión debe ser apoyada en su revisión periódica por un comité permanente denominado «Comité técnico — sistemas de IA de alto riesgo» (TCRAI, por sus siglas en inglés), de conformidad con el presente Reglamento. Este comité permanente debe incluir representantes de los Estados miembros, así como una selección equilibrada de las partes interesadas, incluidas asociaciones de consumidores, asociaciones que representan a las personas afectadas, representantes de empresas de distintos sectores y tamaños, así como investigadores y científicos. En particular, a fin de garantizar una participación equitativa en la preparación de los actos delegados, el Parlamento Europeo y el Consejo reciben toda la documentación al mismo tiempo que los expertos de los Estados miembros, y sus expertos tienen acceso sistemáticamente a las reuniones de los grupos de expertos de la Comisión y del Comité mencionado anteriormente que se ocupen de la preparación de actos delegados.

(16) El presente Reglamento debe cubrir los daños o perjuicios a la vida, la salud, la integridad física, la propiedad y los daños morales significativos que den lugar a una pérdida económica comprobable por encima de un umbral, armonizado en el Derecho de la Unión en materia de responsabilidad civil, que equilibre el acceso a la justicia de las personas afectadas con los intereses de otras personas implicadas. La Comisión debe reevaluar y ajustar en el Derecho de la Unión los umbrales relativos a los perjuicios. Por daño moral significativo debe entenderse un daño como consecuencia del cual la persona afectada sufre un perjuicio considerable, un menoscabo objetivo y demostrable de sus intereses personales y una pérdida económica calculada teniendo en cuenta, por ejemplo, las cifras medias anuales de ingresos anteriores y otras circunstancias pertinentes. El presente Reglamento también debe determinar el importe y el alcance de la indemnización, así como el plazo de prescripción para presentar demandas en materia de responsabilidad civil. El presente Reglamento debe establecer un límite máximo de indemnización significativamente inferior que el recogido en la Directiva sobre responsabilidad por los daños causados por productos defectuosos, ya que el Reglamento solo se refiere al daño o perjuicio de una sola persona resultante de una única utilización de un sistema de IA, mientras que dicha Directiva se refiere a una serie de productos o, incluso, a una línea de productos con el mismo defecto.

(17) Todas las actividades, dispositivos o procesos físicos o virtuales gobernados por los sistemas de IA que no se incluyan en la lista del anexo del presente Reglamento como sistemas de IA de alto riesgo deben seguir estando sujetos a la responsabilidad subjetiva, a menos que estén en vigor leyes nacionales o legislación en materia de protección de los consumidores más estrictas. Deben seguir aplicándose las legislaciones nacionales de los Estados miembros, incluida cualquier jurisprudencia pertinente, en relación con el importe y el alcance de la indemnización, así como el plazo de prescripción. No obstante, una persona que sufra un daño o perjuicio causado por un sistema de IA y que no se incluya en la lista como sistema de IA de alto riesgo debe acogerse a la presunción de culpa del operador.

(18) La diligencia debida que cabe esperar de un operador debe ser acorde con i) la naturaleza del sistema de IA; ii) el derecho jurídicamente protegido potencialmente afectado; iii) el daño o perjuicio potencial que podría causar el sistema de IA; y iv) la probabilidad de dicho perjuicio. Por consiguiente, debe tenerse en cuenta que el operador podría tener un conocimiento limitado de los algoritmos y datos utilizados en el sistema de IA. Se debe suponer que el operador ha prestado la debida atención que cabe esperar razonablemente de él al seleccionar un sistema de IA adecuado si ha seleccionado un sistema de IA que ha sido certificado conforme a un sistema similar al sistema de etiquetado voluntario previsto por la Comisión (5). Se debe suponer que el operador ha prestado la debida atención que cabe esperar razonablemente de él durante el funcionamiento del sistema de IA, si el operador puede demostrar que ha supervisado real y periódicamente el sistema de IA durante su funcionamiento y si ha informado al fabricante sobre posibles irregularidades durante el mismo. Se debe suponer que el operador ha prestado la debida atención que cabe esperar razonablemente de él en lo que se refiere al mantenimiento de la fiabilidad operativa si ha instalado todas las actualizaciones disponibles proporcionadas por el productor del sistema de IA. Dado que el grado de sofisticación de los operadores puede variar en función de si son meros consumidores o profesionales, los deberes de diligencia deben adaptarse en consecuencia.

(19) Para que el operador pueda demostrar que no es responsable o para permitir que la persona afectada pueda demostrar la existencia de culpa, los productores han de tener el deber de colaborar con las dos partes interesadas, también mediante la facilitación de información bien documentada. Tanto los productores establecidos en la Unión como fuera de ella deben tener, además, la obligación de designar a un representante en materia de responsabilidad civil de la IA en la Unión como punto de contacto para responder a todas las solicitudes de los operadores, de modo similar a los delegados de protección de datos de conformidad con el artículo 37 del Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo (6), a los representantes del fabricante definidos en el artículo 3, punto 41, del Reglamento (UE) 2018/858 del Parlamento Europeo y del Consejo (7), o al representante autorizado mencionado en el artículo 4, apartado 2, y en el artículo 5 del Reglamento (UE) 2019/1020 del Parlamento Europeo y del Consejo (8).

(20) El legislador debe tener en cuenta los riesgos en materia de responsabilidad civil relacionados con los sistemas de IA durante todo su ciclo de vida, desde el desarrollo, pasando por su uso hasta el fin de su vida útil, incluida la gestión de residuos y del reciclado. La inclusión de sistemas de IA en un producto o servicio representa un riesgo financiero para las empresas y, por consiguiente, va a tener un fuerte impacto en la capacidad y las opciones de las pymes, así como de las empresas emergentes, en materia de seguros y de financiación de sus proyectos de investigación ydesarrollo basados en nuevas tecnologías. El objetivo de la responsabilidad civil, por lo tanto, no es solo salvaguardar importantes derechos de las personas que están jurídicamente protegidos sino también determinar si las empresas, en particular las pymes y las empresas emergentes, son capaces de reunir capital, innovar, investigar y, en última instancia, ofrecer productos y servicios nuevos, así como si los clientes confían en esos productos y servicios y están dispuestos a usarlos a pesar de los riesgos potenciales y de las demandas judiciales que se presenten en relación con dichos productos o servicios.

(21) El seguro puede garantizar que las víctimas perciban una indemnización efectiva y mutualizar los riesgos de todas las personas aseguradas. Uno de los factores en los que las compañías de seguros basan su oferta de productos y servicios de seguros es la evaluación de riesgos basada en el acceso a datos históricos suficientes en relación con las reclamaciones. Un acceso deficiente a datos de calidad elevada o una cantidad insuficiente de este tipo de datos podría ser una de las razones por las que en un principio resulta difícil crear productos de seguro para las tecnologías nuevas y emergentes. Sin embargo, un mayor acceso y la optimización del uso de los datos generados por las nuevas tecnologías, combinados con la obligación de facilitar información bien documentada, aumentaría la capacidad de las aseguradoras para modelar el riesgo emergente y fomentar el desarrollo de una cobertura más innovadora.

(22) Debido a la ausencia de datos históricos sobre las reclamaciones, debe investigarse cómo y en qué condiciones es asegurable la responsabilidad, con vistas a establecer un vínculo entre el seguro y el producto y no con la persona responsable. Ya existen productos de seguro que se desarrollan por ámbito y cobertura a medida que se desarrolla la tecnología. Numerosas compañías de seguros se especializan en determinados segmentos del mercado (por ejemplo, las pymes) o en brindar cobertura a determinados tipos de productos (por ejemplo, los aparatos eléctricos), lo que significa que, por lo general, el asegurado tendrá a su disposición un producto de seguro. Sin embargo, es difícil concebir una solución de «talla única» y el mercado de los seguros necesitará tiempo para adaptarse. La Comisión debe colaborar estrechamente con el mercado de los seguros para desarrollar productos de seguro innovadores que podrían colmar esa laguna en la materia. En casos excepcionales, como en el caso de que se produzcan daños colectivos, en los que la indemnización exceda de modo significativo los importes máximos establecidos en el presente Reglamento, debe alentarse a los Estados miembros a crear un fondo especial de indemnización para un período de tiempo limitado que responda a las necesidades específicas de esos casos. También podrían crearse fondos especiales de indemnización para cubrir aquellos casos excepcionales en los que un sistema de IA, que aún no esté clasificado como sistema de IA de alto riesgo y que, por tanto, todavía no está asegurado, cause daños o perjuicios. A fin de garantizar la seguridad jurídica y cumplir la obligación de informar a todas las personas potencialmente afectadas, la existencia del fondo especial de indemnización, así como las condiciones para acogerse a él, deben hacerse públicas de manera clara y exhaustiva.

(23) Reviste gran importancia que los posibles cambios al presente Reglamento que se introduzcan en el futuro vayan acompañados de la necesaria revisión de la Directiva sobre responsabilidad por los daños causados por productos defectuosos a fin de revisarla de manera integral y coherente y garantizar los derechos y obligaciones de todas las partes interesadas a lo largo de la cadena de responsabilidad civil. La introducción de un nuevo régimen de responsabilidad civil en relación con el operador de sistemas de la IA requiere que las disposiciones del presente Reglamento y la revisión de la Directiva sobre responsabilidad por los daños causados por productos defectuosos se coordinen estrechamente, tanto en términos de fondo como de enfoque, de modo que, juntas, constituyan un marco de responsabilidad civil coherente para los sistemas de IA, que equilibre los intereses del productor, del operador, del consumidor y de la persona afectada en lo que respecta al riesgo de responsabilidad civil y los regímenes de indemnización relevantes. Por lo tanto, adaptar y racionalizar las definiciones de sistemas de IA, operador final e inicial, productor, defecto, producto y servicio en todas las disposiciones legislativas parece necesario y debe contemplarse al mismo tiempo.

(24) Los objetivos que persigue el presente Reglamento, a saber, la adopción de un enfoque orientado hacia el futuro y unificado a escala de la Unión que establezca normas europeas comunes para los ciudadanos y empresas europeos y que garantice la coherencia de los derechos y la seguridad jurídica en el conjunto de la Unión, a fin de evitar la fragmentación del mercado único digital, lo que obstaculizaría el objetivo de mantener la soberanía digital, de fomentar la innovación digital en Europa y de garantizar un nivel elevado de protección de los derechos de los ciudadanos y los consumidores, exigen una armonización plena de los regímenes de responsabilidad civil aplicables a los sistemas de IA. Los Estados miembros no pueden lograr los objetivos perseguidos en la medida adecuada, debido a la velocidad de los cambios de carácter tecnológico, al desarrollo transfronterizo así como al uso de los sistemas de IA y, en última instancia, a los enfoques legislativos contradictorios en el conjunto de la Unión, sino que, debido a la dimensión o a los efectos de la acción, esos objetivos pueden lograrse mejor a escala de la Unión, esta puede adoptar medidas, de conformidad con el principio de subsidiariedad establecido en el artículo 5 del Tratado de la Unión Europea. De conformidad con el principio de proporcionalidad establecido en el mismo artículo, el presente Reglamento no excede de lo necesario para alcanzar dichos objetivos,

HAN ADOPTADO EL PRESENTE REGLAMENTO:

CAPÍTULO I. DISPOSICIONES GENERALES

Artículo 1. Objeto

El presente Reglamento establece normas en relación con las demandas por responsabilidad civil de las personas físicas y jurídicas contra los operadores de sistemas de IA.

Artículo 2. Ámbito de aplicación

1. El presente Reglamento se aplica en el territorio de la Unión a aquellos casos en que una actividad física o virtual, un dispositivo o un proceso gobernado por un sistema de IA haya causado daños o perjuicios a la vida, la salud, la integridad física de una persona física y los bienes de una persona física o jurídica, o bien haya causado daños morales considerables que den lugar a una pérdida económica comprobable.

2. Todo acuerdo celebrado entre un operador de un sistema de IA y una persona física o jurídica que sufra un daño o perjuicio como consecuencia de un sistema de IA, que eluda o limite los derechos y obligaciones establecidos en el presente Reglamento, celebrado bien antes o después de haberse causado el daño o perjuicio, será considerado nulo por lo que respecta a los derechos y obligaciones estipulados en virtud del presente Reglamento.

3. El presente Reglamento se entiende sin perjuicio de cualquier otra demanda en materia de responsabilidad civil derivada de las relaciones contractuales, así como de la normativa sobre responsabilidad por los daños causados por productos defectuosos, la protección de los consumidores, la lucha contra la discriminación y la protección laboral y del medio ambiente, entre el operador y la persona física o jurídica que haya sufrido un daño o perjuicio a causa del sistema de IA y de que se pueda presentar contra el operador de conformidad con el Derecho de la Unión o nacional

Artículo 3. Definiciones

A efectos del presente Reglamento, se entenderá por:

a) «sistema de inteligencia artificial»: todo sistema basado en programas informáticos o incorporado en dispositivos físicos que muestra un comportamiento que simula la inteligencia, entre otras cosas, mediante la recopilación y el tratamiento de datos, el análisis y la interpretación de su entorno y la actuación, con cierto grado de autonomía, para lograr objetivos específicos;

b) «autónomo»: todo sistema de inteligencia artificial que funciona interpretando determinados datos de entrada y utilizando un conjunto de instrucciones predeterminadas, sin limitarse a ellas, a pesar de que el comportamiento del sistema esté limitado y orientado a cumplir el objetivo que se le haya asignado y otras decisiones pertinentes de diseño tomadas por su desarrollador;

c) «alto riesgo»: el potencial significativo en un sistema de IA que funciona de forma autónoma para causar daños o perjuicios a una o más personas de manera aleatoria y que excede lo que cabe esperar razonablemente; la magnitud del potencial depende de la relación entre la gravedad del posible daño o perjuicio, el grado de autonomía de la toma de decisiones, la probabilidad de que el riesgo se materialice y el modo y el contexto en que se utiliza el sistema de IA;

d) «operador»: tanto el operador final como el inicial, siempre que la responsabilidad civil de este último no esté ya cubierta por la Directiva 85/374/CEE;

e) «operador final»: toda persona física o jurídica que ejerce un grado de control sobre un riesgo asociado a la operación y el funcionamiento del sistema de IA y se beneficia de su funcionamiento;

f) «operador inicial»: toda persona física o jurídica que define, de forma continuada, las características de la tecnología y proporciona datos y un servicio de apoyo final de base esencial y, por tanto, ejerce también grado de control sobre un riesgo asociado a la operación y el funcionamiento del sistema de IA;

g) «control»: toda acción de un operador que influya en el funcionamiento de un sistema de IA y, por consiguiente, la medida en que el operador expone a terceros a los potenciales riesgos asociados a la operación y al funcionamiento del sistema de IA; esa acción puede afectar al funcionamiento en cualquier fase al determinar la entrada, la salida o resultados o pueden cambiar funciones o procesos específicos dentro del sistema de IA; el grado en que estos aspectos del funcionamiento del sistema de IA están determinados por la acción depende del nivel de influencia que el operador tenga sobre el riesgo relacionado con la operación y el funcionamiento del sistema de IA;

h) «persona afectada»: toda persona que sufre daños o perjuicios por una actividad física o virtual, un dispositivo o un proceso gobernado por un sistema de IA, y que no sea su operador;

i) «daño o perjuicio»: impacto adverso que afecta a la vida, la salud, la integridad física de una persona física, los bienes de una persona física o jurídica o bien que produce daños morales significativos que resultan en una pérdida económica comprobable;

j) «productor»: el productor tal como se define en el artículo 3 de la Directiva 85/374/CEE.

CAPÍTULO II. SISTEMAS DE IA DE ALTO RIESGO

Artículo 4. Responsabilidad objetiva de los sistemas de IA de alto riesgo

1. El operador de un sistema de IA de alto riesgo será objetivamente responsable de cualquier daño o perjuicio causado por una actividad física o virtual, un dispositivo o un proceso gobernado por dicho sistema de IA.

2. En el anexo al presente Reglamento se enumerarán todos los sistemas de IA de alto riesgo y los sectores críticos en los que se utilizan. La Comisión estará facultada para adoptar actos delegados con arreglo al artículo 13 bis para modificar la lista exhaustiva:

a) mediante la inclusión de nuevos tipos de sistemas de IA de alto riesgo y de los sectores críticos en los que se han desplegado;

b) suprimiendo los tipos de sistemas de IA que ya no se considera que presentan un alto riesgo; o

c) modificando los sectores críticos para los sistemas de IA de alto riesgo existentes. Todo acto delegado por el que se modifique el anexo entrará en vigor seis meses después de su adopción. Al determinar la inclusión en el anexo de nuevos sistemas de IA de alto riesgo o sectores críticos mediante actos delegados, la Comisión tendrá plenamente en cuenta los criterios establecidos en el presente Reglamento, en particular los recogidos en el artículo 3, letra c).

3. Los operadores de un sistema de IA de alto riesgo no podrán eludir su responsabilidad civil alegando que actuaron con la diligencia debida o que el daño o perjuicio fue causado por una actividad, un dispositivo o un proceso autónomos gobernados por su sistema de IA. Los operadores no serán responsables si el daño o perjuicio ha sido provocado por un caso de fuerza mayor.

4. El operador final de un sistema de IA de alto riesgo garantizará que las operaciones de dicho sistema de IA estén cubiertas por un seguro de responsabilidad civil adecuado en relación con los importes y el alcance de la indemnización previstos en los artículos 5 y 6 del presente Reglamento. El operador inicial garantizará que sus servicios estén cubiertos por un seguro de responsabilidad empresarial o de responsabilidad civil de productos adecuado en relación con los importes y el alcance de la indemnización previstos en los artículos 5 y 6 del presente Reglamento. Si se considera que los regímenes de seguro obligatorio del operador final o inicial ya vigentes con arreglo a otra legislación de la Unión o nacional o los fondos voluntarios existentes de seguros de empresas cubren el funcionamiento del sistema de IA o el servicio prestado, la obligación de suscribir un seguro en relación con el sistema de IA o el servicio prestado con arreglo al presente Reglamento se considerará cumplida siempre que el correspondiente seguro obligatorio existente o los fondos voluntarios existentes de seguros de empresas cubran los importes y el alcance de la indemnización previstos en los artículos 5 y 6 del presente Reglamento.

5. El presente Reglamento prevalecerá sobre los regímenes nacionales de responsabilidad civil en caso de clasificación divergente por responsabilidad objetiva de los sistemas de IA.

Artículo 5. Importe de la indemnización

1. Un operador de un sistema de IA de alto riesgo que haya sido considerado responsable de un daño o perjuicio con arreglo al presente Reglamento indemnizará:

a) hasta un importe máximo de dos millones de euros en caso de fallecimiento o de daños causados a la salud o a la integridad física de una persona afectada como resultado del funcionamiento de un sistema de IA de alto riesgo;

b) hasta un importe máximo de un millón de euros en caso de daños morales significativos que resulten en una pérdida económica comprobable o en daños a bienes, también cuando distintos bienes propiedad de una persona afectada resulten dañados como resultado de un único funcionamiento de un único sistema de IA de alto riesgo; cuando la persona afectada también disponga de un derecho a reclamar por responsabilidad contractual contra el operador, no se abonará ninguna indemnización en virtud del presente Reglamento si el importe total de los perjuicios materiales o el daño moral es de un valor inferior a [500 euros] (9).

2. Cuando la indemnización combinada que deba abonarse a varias personas que sufran daños o perjuicios causados por el mismo funcionamiento de un mismo sistema de IA de alto riesgo supere los importes totales máximos previstos en el apartado 1, los importes que deban abonarse a cada persona se reducirán proporcionalmente de forma que la indemnización combinada no supere los importes máximos establecidos en el apartado 1.

Artículo 6. Alcance de la indemnización

1. Dentro de los límites para el importe establecidos en el artículo 5, apartado 1, letra a), la indemnización que abonará el operador considerado responsable en caso de daños físicos seguidos de la muerte de la persona afectada se calculará sobre la base de los costes del tratamiento médico que haya seguido la persona afectada antes de su muerte, así como del perjuicio económico sufrido antes del fallecimiento como consecuencia del cese o la reducción de la capacidad de generar ingresos o el aumento de sus necesidades mientras durase el daño antes del fallecimiento. El operador será además responsable de reembolsar los gastos funerarios de la persona afectada fallecida a la parte responsable de sufragar dichos gastos.

Si en el momento del incidente que causó el daño que condujo a su muerte, la persona afectada mantenía una relación con un tercero y tenía la obligación jurídica de asistir a ese tercero, el operador responsable indemnizará al tercero mediante el pago de una pensión alimenticia proporcional a la que la persona afectada se habría visto obligada a pagar, durante un período equivalente a la esperanza de vida media de una persona de su edad y teniendo en cuenta su estado general. El operador también indemnizará al tercero si, en el momento del incidente que provocó la muerte, el tercero había sido concebido, pero todavía no había nacido.

2. Dentro de los límites para el importe establecidos en el artículo 5, apartado 1, letra b), la indemnización que pagará el operador considerado responsable en caso de daño para la salud o para la integridad física de la persona afectada incluirá el reembolso de los gastos del tratamiento médico correspondiente, así como el pago del perjuicio económico sufrido por la persona afectada como consecuencia de la suspensión temporal, la reducción o el cese definitivo de su capacidad de generar ingresos o del aumento consiguiente de sus necesidades acreditado mediante certificado médico.

Artículo 7. Plazo de prescripción

1. Las demandas por responsabilidad civil presentadas de conformidad con lo dispuesto en el artículo 4, apartado 1, relativas a daños a la vida, la salud o la integridad física estarán sujetas a un plazo de prescripción especial de treinta años a partir de la fecha en que se produjo el daño.

2. Las demandas por responsabilidad civil presentadas de conformidad con lo dispuesto en el artículo 4, apartado 1, relativas a perjuicios materiales o daños morales considerables que resulten en una pérdida económica comprobable estarán sujetas a un plazo de prescripción especial de:

a) diez años a partir de la fecha en que se produjo el menoscabo a los bienes o la pérdida económica comprobable resultante del daño moral significativo, respectivamente, o

b) treinta años a partir de la fecha en que tuvo lugar la operación del sistema de IA de alto riesgo que causó posteriormente el menoscabo a los bienes o el daño moral.

De los plazos contemplados en el párrafo primero, será aplicable aquel que venza antes.

3. El presente artículo se entenderá sin perjuicio de la legislación nacional que regule la suspensión o la interrupción de los plazos de prescripción.

CAPÍTULO III. OTROS SISTEMAS DE IA

Artículo 8. Responsabilidad subjetiva para otros sistemas de IA

1. El operador de un sistema de IA que no constituya un sistema de IA de alto riesgo, tal y como se define en el artículo 3, letra c), y en el artículo 4, apartado 2, y que, en consecuencia, no figure en el anexo del presente Reglamento, estará sujeto a responsabilidad subjetiva respecto de todo daño o perjuicio causado por una actividad física o virtual, un dispositivo o un proceso gobernados por el sistema de IA.

2. El operador no será responsable si puede demostrar que no tuvo culpa en el daño o perjuicio causado, basándose en uno de los siguientes motivos:

a) el sistema de IA se activó sin su conocimiento, al tiempo que se tomaron todas las medidas razonables y necesarias para evitar dicha activación fuera del control del operador, o

b) se observó la diligencia debida a través de la realización de las siguientes acciones: la selección de un sistema de IA adecuado para las tareas y las capacidades pertinentes, la correcta puesta en funcionamiento del sistema de IA, el control de las actividades y el mantenimiento de la fiabilidad operativa mediante la instalación periódica de todas las actualizaciones disponibles.

El operador no podrá eludir su responsabilidad alegando que el daño o perjuicio fue causado por una actividad, un dispositivo o un proceso autónomos gobernados por su sistema de IA. El operador no será responsable si el daño o perjuicio ha sido provocado por un caso de fuerza mayor.

3. Cuando el daño o perjuicio haya sido causado por un tercero que haya interferido en el sistema de IA por medio de una modificación de su funcionamiento o sus efectos, el operador será, no obstante, responsable del pago de una indemnización en caso de que dicho tercero esté ilocalizable o sea insolvente.

4. A petición del operador o de la persona afectada, el productor de un sistema de IA tendrá la obligación de cooperar con ellos y de facilitarles información en la medida que lo justifique la relevancia de la demanda, a fin de permitir que se determinen las responsabilidades.

Artículo 9. Disposiciones nacionales sobre indemnización y plazo de prescripción

Las demandas por responsabilidad civil presentadas de conformidad con el artículo 8, apartado 1, estarán sujetas, en relación con los plazos de prescripción, así como con los importes y el alcance de la indemnización, a la legislación del Estado miembro en el que se haya producido el daño o perjuicio.

CAPÍTULO IV. IMPUTACIÓN DE LA RESPONSABILIDAD CIVIL

Artículo 10. Negligencia concurrente

1. Si el daño o perjuicio es causado por una actividad física o virtual, un dispositivo o un proceso gobernados por un sistema de IA o por la actuación de una persona afectada o de una persona de la que la persona afectada sea responsable, el alcance de la responsabilidad civil del operador con arreglo al presente Reglamento se reducirá en consecuencia. El operador no será responsable si la persona afectada o la persona de la que esta es responsable es la única a la que se le puede achacar el daño o perjuicio causado.

2. Un operador considerado responsable podrá utilizar los datos generados por el sistema de IA para demostrar la negligencia concurrente de la persona afectada, de conformidad con el Reglamento (UE) 2016/679 y otras leyes en materia de protección de datos relevantes. La persona afectada también podrá usar esos datos con fines probatorios o aclaratorios en la demanda por responsabilidad civil.

Artículo 11. Responsabilidad solidaria

En caso de que haya más de un operador de un sistema de IA, estos serán responsables solidarios. Si un operador final es también el productor del sistema de IA, el presente Reglamento prevalecerá sobre la Directiva sobre responsabilidad por los daños causados por productos defectuosos. Si el operador inicial también tiene la condición de productor en el sentido del artículo 3 de la Directiva sobre responsabilidad por los daños causados por productos defectuosos, deberá aplicársele dicha Directiva. Si solo hay un operador y dicho operador es también el productor del sistema de IA, el presente Reglamento prevalecerá sobre la Directiva sobre responsabilidad por los daños causados por productos defectuosos.

Artículo 12. Indemnización por la vía de regreso

1. El operador no estará facultado para ejercitar una acción en la vía de regreso a menos que a la persona afectada se le haya abonado la totalidad de la indemnización a la que esa persona tenga derecho a recibir en virtud del presente Reglamento.

2. El operador que sea considerado responsable solidario con otros operadores en relación con una persona afectada y haya indemnizado íntegramente a esa persona afectada, de conformidad con el artículo 4, apartado 1, o el artículo 8, apartado 1, podrá recuperar parte de la indemnización de otros operadores, en proporción a su responsabilidad.

Los porcentajes de responsabilidad se basarán en los respectivos niveles de control por parte de los operadores sobre el riesgo relacionado con la operación y el funcionamiento del sistema de IA. Si no puede obtenerse de un operador responsable solidariamente la contribución que le sea atribuible, el déficit será asumido por los demás operadores. En la medida en que un operador solidariamente responsable indemnice a la persona afectada y solicite un ajuste de los anticipos a los demás operadores responsables, el operador quedará subrogado en el crédito de la persona afectada frente a los demás operadores. No se invocará la subrogación de créditos en perjuicio de la demanda inicial.

3. En caso de que el operador de un sistema de IA defectuoso indemnice íntegramente a la persona afectada por daños o perjuicios con arreglo a lo dispuesto en el artículo 4, apartado 1, o en el artículo 8, apartado 1, del presente Reglamento, podrá ejercitar una acción de resarcimiento frente al productor del sistema de IA defectuoso de conformidad con la Directiva 85/374/CEE y las disposiciones nacionales en materia de responsabilidad por los daños causados por productos defectuosos.

4. En caso de que el asegurador del operador indemnice a la persona afectada por daños o perjuicios con arreglo a lo dispuesto en el artículo 4, apartado 1, o en el artículo 8, apartado 1, el asegurador del operador se subrogará en el crédito que la persona afectada tenga frente a otra persona por responsabilidad civil por el mismo daño hasta el importe con el que el asegurador del operador haya indemnizado a la persona afectada.

CAPÍTULO V. DISPOSICIONES FINALES

Artículo 13. Ejercicio de la delegación

1. Se otorgan a la Comisión los poderes para adoptar actos delegados en las condiciones establecidas en el presente artículo.

2. Los poderes para adoptar actos delegados mencionados en el artículo 4, apartado 2, se otorgan a la Comisión por un período de cinco años a partir de [fecha de aplicación del presente Reglamento].

3. La delegación de poderes mencionada en el artículo 4, apartado 2, podrá ser revocada en cualquier momento por el Parlamento Europeo o por el Consejo. La decisión de revocación pondrá término a la delegación de los poderes que en ella se especifiquen. La decisión surtirá efecto el día siguiente al de su publicación en el Diario Oficial de la Unión Europea o en una fecha posterior indicada en ella. No afectará a la validez de los actos delegados que ya estén en vigor.

4. Antes de la adopción de un acto delegado, la Comisión consultará al Comité técnico permanente — sistemas de IA de alto riesgo (Comité TCRAI), de conformidad con los principios establecidos en el Acuerdo interinstitucional de 13 de abril de 2016 sobre la mejora de la legislación.

5. Tan pronto como la Comisión adopte un acto delegado lo notificará simultáneamente al Parlamento Europeo y al Consejo.

6. Los actos delegados adoptados en virtud del artículo 4, apartado 2, entrarán en vigor únicamente si, en un plazo de dos meses a partir de su notificación al Parlamento Europeo y al Consejo, ninguna de estas instituciones formula objeciones o si, antes del vencimiento de dicho plazo, ambas informan a la Comisión de que no las formularán. El plazo se prorrogará dos meses a iniciativa del Parlamento Europeo o del Consejo.

Artículo 14. Revisión

A más tardar el 1 de enero de 202X [tres años después de la fecha de aplicación del presente Reglamento], y posteriormente cada tres años, la Comisión presentará al Parlamento Europeo, al Consejo y al Comité Económico y Social Europeo un informe detallado en el que se revise el presente Reglamento a la luz del desarrollo ulterior de la inteligencia artificial.

Al elaborar el informe a que se refiere el párrafo primero, la Comisión solicitará la información pertinente a los Estados miembros sobre la jurisprudencia, los acuerdos judiciales y las estadísticas sobre accidentes, tales como el número de accidentes, los daños sufridos, las aplicaciones de IA involucradas o las indemnizaciones abonadas por las compañías de seguros, así como una evaluación de la cantidad de demandas presentadas por las personas afectadas, ya sea de forma individual o colectiva, y de los plazos dentro de los cuales se tramitaron esas demandas en los tribunales.

El informe de la Comisión irá acompañado, en su caso, de propuestas legislativas destinadas a suplir las lagunas identificadas en el informe.

Artículo 15. Entrada en vigor

El presente Reglamento entrará en vigor a los veinte días de su publicación en el Diario Oficial de la Unión Europea. Será aplicable a partir del 1 de enero de 202X.

El presente Reglamento será obligatorio en todos sus elementos y directamente aplicable en cada Estado miembro.

Hecho en ,

Por el Parlamento Europeo, El Presidente

Por el Consejo, El Presidente

—————————————–

(1) DO L 210 de 7.8.1985, p. 29.

(2) DO L 149 de 11.6.2005, p. 22.

(3) DO L 304 de 22.11.2011, p. 64.

(4) DO L 117 de 5.5.2017, p. 1.

(5) DO L 252 de 8.10.2018, p. 1.

(6) DO L 136 de 22.5.2019, p. 1.

(7) DO L 123 de 12.5.2016, p. 1.

(8) DO C 252 de 18.7.2018, p. 239.

(9) DO C 307 de 30.8.2018, p. 163.

(10) DO C 433 de 23.12.2019, p. 86.

(11) Textos Aprobados, P8_TA(2019)0081.

(12) Textos Aprobados, P9_TA(2020)0032.

(13) https://www.europarl.europa.eu/RegData/etudes/STUD/2020/654178/EPRS_STU(2020)654178_EN.pdf

(14) https://www.europarl.europa.eu/RegData/etudes/STUD/2016/563501/EPRS_STU(2016)563501(ANN)_EN.pdf

(15) https://www.europarl.europa.eu/RegData/etudes/STUD/2016/571379/IPOL_STU(2016)571379_EN.pdf

(16) DO L 11 de 15.1.2002, p. 4.

(17) DO L 263 de 7.10.2009, p. 11.

———————————–

(1) DO…

(2) DO…

(3) Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos (DO L 210 de 7.8.1985, p. 29).

(4) DO L 123 de 12.5.2016, p. 1.

(5) Véase la página 24 del Libro Blanco de la Comisión, de 19 de febrero de 2020, titulado «Inteligencia artificial — Un enfoque europeo orientado a la excelencia y la confianza» (COM(2020)0065).

(6) Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos) (DO L 119 de 4.5.2016, p. 1).

(7) Reglamento (UE) 2018/858 del Parlamento Europeo y del Consejo, de 30 de mayo de 2018, sobre la homologación y la vigilancia del mercado de los vehículos de motor y sus remolques y de los sistemas, los componentes y las unidades técnicas independientes destinados a dichos vehículos, por el que se modifican los Reglamentos (CE) nº 715/2007 y (CE) nº 595/2009 y por el que se deroga la Directiva 2007/46/CE (DO L 151 de 14.6.2018, p. 1).

(8) Reglamento (UE) 2019/1020 del Parlamento Europeo y del Consejo, de 20 de junio de 2019, relativo a la vigilancia del mercado y la conformidad de los productos y por el que se modifican la Directiva 2004/42/CE y los Reglamentos (CE) nº 765/2008 y (UE) nº 305/2011 (DO L 169 de 25.6.2019, p. 1).

(9) Pendiente de revisión por parte de la Comisión Europea tal y como se establece en el apartado 19 de la resolución.

23Nov/23
Proyecto de Ley

Proyecto de ley nº 059 de 8 de agosto de 2023

Proyecto de ley nº 059 de 8 de agosto de 2023, cuyo propósito es emitir los lineamientos de uso de la inteligencia artificial (IA) en el país o el desarrollo de estas herramientas tecnológicas

Proyecto de Ley nº 059, 2023 SENADO, “Por medio de la cual se establecen los lineamientos de política pública para el desarrollo, uso e implementación de Inteligencia Artificial y se dictan otras disposiciones”.

El Congreso de Colombia, DECRETA:

TÍTULO I. DISPOSICIONES PRELIMINARES

ARTÍCULO l. OBJETO.

La presente ley tiene por objeto establecer los lineamientos de política pública para el desarrollo, uso e implementación de la Inteligencia Artificial.

ARTÍCULO 2. DEFINICIONES.

Para efectos de interpretación de la presente ley se establecen las siguientes definiciones:

DATO:

Información dispuesta para análisis y desarrollo de algoritmos.

INTELIGENCIA ARTIFICIAL:

Disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones  comparables  a  las  que  realiza  la  mente  humana, como  el aprendizaje o el razonamiento lógico.

ARTÍCULO 3. PRINCIPIOS.

Para efectos de interpretación y aplicación de la presente ley se establecen los siguientes principios:

AUTORIDAD HUMANA:

Toda decisión o dato de Inteligencia Artificial es auditable, revisable y controvertible por la decisión humana.

BIEN COMÚN:

El uso, desarrollo e implementación de la Inteligencia Artificial no podrá tener como objetivo diferente el del bien común.

COOPERACIÓN:

Las investigaciones en Inteligencia Artificial propenderán por la cooperación en materia de prevención del riesgo.

DISEÑO SEGURO:

En todas las etapas de diseño y desarrollo de Inteligencia Artificial se deberán prever los efectos dañinos debiéndose abstener la implementación por evidencia de riesgo e inseguridad.

PREVALENCIA DE LA INTELIGENCIA HUMANA:

Prevalecerá la decisión humana sobre los resultados que se establezca por medio de la Inteligencia Artificial.

INVESTIGACIÓN PREVENTIVA:

Las investigaciones en inteligencia artificial en todo momento deberán contar con desarrollos paralelos de prevención de riesgos.

ARTÍCULO 4. COMISIÓN DE TRATAMIENTO DE DATOS Y DESARROLLOS CON INTELIGENCIA ARTIFICIAL.

Créase una Comisión de Tratamiento de Datos y Desarrollos con Inteligencia Artificial, sin personería jurídica, que se conformará por:

1.            El ministro de Ciencia, Tecnología e Innovación

2.            El ministro de las Tecnologías de la Información y las Comunicaciones.

3.            El Procurador General de la Nación

4.            El director del Departamento Administrativo de Planeación Nacional.

5.            Un representante de las universidades, el cual deberá contar con acreditación en alta calidad y acreditación institucional internacional.

ARTÍCULO 5. FUNCIONES DE LA COMISIÓN DE TRATAMIENTO DE DATOS Y DESARROLLOS CON INTELIGENCIA ARTIFICIAL.

La Comisión de Tratamiento de Datos y Desarrollos con Inteligencia Artificial tendrá las siguientes funciones:

1.            Avalar las solicitudes institucionales sobre desarrollos e implementación de Inteligencia Artificial.

2.            Proyectar y divulga los reglamentos técnicos para el uso, desarrollo e implementación de la Inteligencia Artificial.

3.            Asesorar al Congreso de la República en las iniciativas relacionadas con Inteligencia Artificial.

4.            Proponer iniciativas tecnológicas de Inteligencia Artificial en la gestión pública.

5.            Proponer   iniciativas   tecnológicas de Inteligencia   Artificial   para   el   desarrollo económico, social y ambiental.

6.            Darse su propio reglamento.

TÍTULO II. DE LA POLÍTICA SOBRE CRECIMIENTO INVLUSIVO, DESARROLLO SOSTENIBLE Y BIENESTAR

ARTÍCULO 6. INTELIGENCIA ARTIFICIAL PARA EL CRECIMIENTO INCLUSIVO.

Las entidades del orden nacional y local que desarrollen políticas de crecimiento y productividad y que implementen la incorporación de Inteligencia Artificial deberán incluir frente a las metas de desarrollo económico, metas de desarrollo social.

ARTÍCULO 7. INTELIGENCIA ARTIFICIAL EN MATERIA DE CAMBIO CLIMÁTICO:

El Gobierno Nacional por medio del Ministerio de Ambiente y Desarrollo Sostenible deberá reglamentar los requerimientos técnicos necesarios para implementar la inteligencia artificial en aras de la eficiencia energética, control de deforestación, movilidad amigable con el ambiente e incluirlo como instrumento planificación y gestión conforme los términos de que trata la ley 1931 de 2018.

ARTÍCULO  8. INTELIGENCIA ARTIFICIAL EN EL SISTEMA NACIONAL DE CAMBIO CLIMÁTICO:

El Gobierno Nacional, por medio del Ministerio de Ambiente y Desarrollo Sostenible incorporará en el Sistema Nacional de Cambio Climático la Inteligencia Artificial como instrumento para gestionar la mitigación de gases efecto invernadero y la adaptación al cambio climático.

TÍTULO III. DE LA POLÍTICA SOBRE LOS VALORES CENTRADOS EN EL SER HUMANO Y EQUIDAD

ARTÍCULO 9. PREVALENCIA DE LA INTELIGENCIA HUMANA SOBRE LA INTELIGENCIA ARTIFICIAL.

Las políticas del orden nacional o local para el uso, desarrollo e implementación de la inteligencia artificial deberán tener como propósito el bien común y la ‘Satisfacción de las necesidades propias del ser humano preservando en todo aspecto la prevalencia de la inteligencia humana sobre la inteligencia artificial.

ARTÍCULO 10. PRESERVACIÓN DEL SER HUMANO y su ENTORNO AMBIENTAL.

Las políticas del orden nacional o local para el uso, desarrollo e implementación de la inteligencia artificial deberán tener como propósito la preservación del ser humano y su entorno ambiental para la detección temprana de epidemias, diagnósticos de salubridad y desarrollo de medicamentos. Los desarrollos de Inteligencia Artificial podrán ser declarados de utilidad pública e interés social.

ARTÍCULO 11. IGUALDAD EN EL DATO:

Las políticas del orden nacional o local para el uso de los datos por parte de la Inteligencia Artificial no pueden permitir que se generen resultados que resulten como actos discriminatorios, por lo cual se deberá garantizar la igualdad de trato e igualdad de oportunidades.

Parágrafo: la búsqueda de información por vía de Inteligencia Artificial que incida en restricciones de la libre competencia será sancionada por la Superintendencia de Industria y Comercio.

TÍTULO IV. DE LA POLÍTICA EN TRANSPARENCIA Y EXPLICABILIDAD

ARTÍCULO 12. CONOCIMIENTO DEL uso DE DATOS.

Las políticas del orden nacional o local deberán establecer que los responsables en el uso, implementación y desarrollo de la Inteligencia Artificial tienen la obligación de informar expresamente a los titulares de los datos usados en el tratamiento que se les está otorgando a los mismos y los resultados obtenidos.

PARÁGRAFO: Los responsables en el uso, desarrollo e implementación de la Inteligencia Artificial deberán comunicar a los titulares de los datos que los mismos están interactuando con un sistema de IA y la manera en que lo está haciendo.

Los titulares de los datos y sus herederos adquieren el derecho irrenunciable a eliminar el dato en cualquier momento. Para tal fin, los responsables que implementen y desarrollen Inteligencia Artificial deberán eliminar el dato dentro de los cinco (05) días hábiles siguientes a la solicitud de su titular.

ARTÍCULO 13. COMPRENSIÓN DEL USO DE DATOS.

Las políticas del orden nacional o local deberán establecer que los responsables en el uso, implementación y desarrollo de la Inteligencia Artificial tienen la obligación de informar expresamente a los titulares el manejo que se les está dando a sus datos y los resultados obtenidos utilizando herramientas de comprensión especiales y atendiendo un nivel de inclusión conforme las características particulares de la persona y sus condiciones especiales.

ARTÍCULO 14. EXPLICABILIDAD.

Las políticas del orden nacional o local deberán establecer que los responsables en el uso, implementación y desarrollo de la Inteligencia Artificial tienen la obligación de garantizar que se conocen las causas que dan lugar a las decisiones, resultados o predicciones de los algoritmos obtenidos por la inteligencia humana.

TÍTULO V. DE LA POLÍTICA PARA LA ROBUSTEZ, SEGURIDAD Y PROTECCIÓNJ

ARTÍCULO 15. DIRECCIÓN Y CONTROL.

Las políticas del orden nacional o local deberán establecer que los sistemas de Inteligencia Artificial contarán con dirección, supervisión, auditorÍa y control de inteligencia humana capacitada y responsable.

ARTÍCULO 16. CIBERSEGURIDAD.

Las políticas del orden nacional o local deberán establecer que los asuntos de ciberseguridad que impliquen el uso, implementación y desarrollo de inteligencia artificial deberán ser avalados por la Comisión de Tratamiento de Datos y Desarrollos con Inteligencia Artificial.

ARTÍCULO 17. INSTRUMENTO DE SEGURIDAD NACIONAL.

Las políticas del orden nacional o local deberán establecer que los asuntos que impliquen el uso, implementación y desarrollo de inteligencia artificial no podrán utilizarse como instrumento armamentista a menos que sea para asuntos de seguridad nacional.

ARTÍCULO 18. DISEÑO SEGURO.

Las políticas del orden nacional o local deberán establecer que el uso, implementación y desarrollo de Inteligencia Artificial deberá realizarse bajo el principio de diseño seguro, en el cual se deberán tener en cuenta efectos sociales, patrimoniales, laborales, económicos, ambientales, comerciales, políticos, y todos aquellos que tengan incidencia o generen riesgo en los seres humanos.

ARTÍCULO 19. PRUEBA PREVIA.

Las políticas del orden nacional o local deberán establecer que los responsables en el manejo de la Inteligencia Artificial deberán garantizar, previa implementación de la Inteligencia Artificial, pruebas previas que garanticen la no generación de daños y la previsión de riesgos.

ARTÍCULO 20. SEGURIDAD DE LA INFORMACIÓN.

Las políticas del orden nacional o [ocal deberán establecer que los responsables en el uso, desarrollo e implementación de la Inteligencia Artificial deberán garantizar la seguridad de la información respetando en todo momento que no se vulnere el derecho a la intimidad y privacidad de las personas.

ARTÍCULO 21. VERACIDAD DEL DATO y DE LOS RESULTADOS.

Las políticas del orden nacional o local deberán establecer que los responsables en el uso, desarrollo e implementación de la Inteligencia Artificial están obligados a realizar controles sobre la veracidad de los datos analizados y de los resultados que genere el sistema.

TÍTULO VI. DE LA POLÍTICA DE RESPONSABILIDAD

CAPÍTULO I. PROTECCIÓN DE DATOS

ARTÍCULO 22. PROTECCIÓN DE DATOS GENERALES.

Las políticas del orden nacional o local deberán establecer que los datos que sirvan para alimentar cualquier desarrollo de Inteligencia Artificial deberán contar con la autorización expresa de su titular y de los terceros que pudieran verse afectados.

PARÁGRAFO: la monetización de los datos usados por medio de inteligencia artificial cuyo beneficio se obtenga por el uso y análisis de la información suministrada por el titular de la información le permitirá a este exigir y reclamar, a manera de contraprestación, los réditos obtenidos sin su consentimiento más la indemnización de perjuicios.

ARTÍCULO 23. PROTECCIÓN DE DATOS PERSONALÍSIMOS.

Las políticas del orden nacional o local deberán establecer que los datos personalísimos como la voz, rasgos faciales, huellas digitales, ADN y otros que pertenezcan al cuerpo de un ser humano y que sirvan para alimentar cualquier desarrollo de Inteligencia Artificial deberá contar con la autorización expresa de su titular. Esta autorización deberá ser notificada al titular informando regularmente el uso de la información.

PARÁGRAFO. Le corresponde al responsable de la Inteligencia Artificial para la protección de datos personalísimos renovar la autorización de que trata el presente artículo de manera· trimestral.

ARTÍCULO 24. RESERVA LEGAL.

Las políticas del orden nacional o local deberán establecer que los datos generales y personalísimos usados en Inteligencia Artificial tienen reserva legal, por lo cual solamente podrán ser usados con autorización expresa de su titular.

ARTÍCULO 25. USO DE DATOS PERSONALÍSIMOS.

Las políticas del orden nacional o local deberán establecer que los datos personalísimos usados en Inteligencia Artificial no podrán ser usados con ánimo de lucro sin el consentimiento del titular de la información.

ARTÍCULO 26. EXCLUSIÓN DE DATOS.

Las políticas del orden nacional o local deberán establecer que las personas titulares de datos que sean usados para efectos de desarrollos de Inteligencia Artificial podrán exigir la eliminación de sus datos en cualquier momento. Por lo anterior, el responsable. del uso y manejo de la Inteligencia Artificial tendrá cinco (05) días para efectos eliminar el dato y notificar a su titular su cumplimiento.

ARTÍCULO 27. ANONIMIZACIÓN DE DATOS.

Las políticas del orden nacional o local deberán establecer que los responsables en el uso de datos utilizados para la Inteligencia Artificial deberán garantizar la anonimización de la información de carácter particular.

CAPÍTULO II. RÉGIMEN DE RESPONSABILIDAD

ARTÍCULO  28. RÉGIMEN DE RESPONSABILIDAD EXTRACONTRACTUAL: 

Las políticas del orden nacional deberán establecer que)os responsables en el uso, manejo e implementación de Inteligencia Artificial están sometidos al régimen de responsabilidad objetiva y deberán garantizar por medio de garantías la reparación de perjuicios materiales e inmateriales. 

ARTÍCULO 29. RÉGIMEN DE RESPONSABILIDAD CONTRACTUAL:

Las políticas del orden nacional o local deberán establecer que las partes de un contrato estatal, en donde se haga uso de Inteligencia Artificial deberán pactar los riesgos  que impliquen el uso frente a los eventuales daños o perjuicios que se generen como consecuencia de su implementación.

ARTÍCULO 30. REGISTROS NACIONAL DE INTELIGENCIA ARTIFICIAL.

Lo desarrollos de Inteligencia Artificial deberán ser registrados ante el Ministerio de Ciencia, Tecnología e Innovación previo cumplimiento de los requisitos técnicos y jurídicos que para, el efecto determine la Comisión de Tratamiento de Datos y Desarrollos con Inteligencia Artificial.

ARTÍCULO 31. CÓDIGO DE ÉTICA

Los responsables del uso, desarrollo e implementación de Inteligencia Artificial deberán radicar ante la Comisión de Tratamiento de Datos y Desarrollos con Inteligencia Artificial un Código de Ética en el que se establezcan los responsables por los daños que se generen, garantizando el cumplimiento, de la presente ley.

TÍTULO VII. DISPOSICIONES FINALES

VIGENCIA Y DEROGATORIA

ARTÍCULO 32. VIGENCIA Y DEROGATORIA.

La presente ley rige a partir de la fecha de su promulgación y deroga las disposiciones que le sean contrarias.

Fdo.  Juan Carlos Garcés Rojas y Juan Diego Echevarría Sánchez, Senador

SENADO DE LAL REPÚBLICA

Secretaría General (Art. 139 y ss. Ley 5ª de 1992)

El día 01 del mes agosto de 2023 se radicó en este despacho el proyecto de ley nº 059 Acto legislativo nº          , con todos y cada uno de los requisitos constitucionales y legales por H.S. Juan Diego Echevarría Sánchez, Juan Carlos Garcés Rojas

SECRETARIO GENERAL

EXPOSICIÓN DE MOTIVOS

l.  CONSIDERACIONES GENERALES

Las iniciativas legislativas por medio de las cuales se establecen políticas públicas han sido desarrolladas en el ordenamiento jurídico colombiano. Ejemplo de éstas se encuentran la ley 1988 de 2019, por medio de la cual se establece la política pública para vendedores informales; la ley 1804 de 2016, por medio de la cual se establece la política de Estado para el Desarrollo Integral de la Primera Infancia de Cero a Siempre; la ley 1953 de 2019, por medio del cual se establece la política pública de prevención de la infertilidad; la ley 1641 de 2013, por medio de la cual se establece la política pública social para habitantes de la calle, entre otras.

El derecho no es ajeno a las nuevas tecnologías. La implementación de TIC en ámbitos relacionados con la administración pública, comercio electrónico, servicios, open gov, inclusión, y otros más, conforme se aprecia al estudiar a JAIRO BECERRA (1), revisten una serie de escenarios en donde la IA se encuentra abriendo espacios en los cuales se desconoce el rumbo, y, por ende, de sus efectos positivos y negativos

Así las cosas, y teniendo en cuenta que se considera necesario iniciar un proceso de regulación sobre la inteligencia artificial, un primer paso correspondería a la adopción de las políticas públicas frente a este tema.

Alemania, conforme lo señala RAFAEL TORRES MUÑOZ (2), se encuentra estableciendo políticas públicas para efectos de desarrollos en robótica e Inteligencia Artificial. Para dicho efecto ha iniciado avances en el uso de vehículos autónomos, la implementación de normas éticas en la IA. Adicionalmente, señala este autor que “no debe extrañar que, los países más avanzados en el desarrollo de tecnología robótica -Alemania en particular, creadora del concepto “Industria 4.0”, en el hemisferio occidental y Japón en el Oriental- sean pioneros en el desarrollo de políticas públicas basadas en investigación de vanguardia, que salvaguarden el derecho al trabajo, al bienestar y la seguridad de los seres humanos. En tanto que la Unión

Europea y Estados Unidos de Norteamérica (EE.UU.) dada su conformación multiestatal, se encuentran aún en una fase de organización, definición de responsabilidades y coberturas.”.

Las políticas públicas adquieren vigencia en la implementación de la Inteligencia Artificial, puesto que se constituye en una herramienta que establece las reglas de aplicación y prevención, dados los efectos que se le ha atribuido a esta tecnología.

2.  INTELIGENCIA ARTIFICIAL

La REAL ACADÉMIA ESPAÑOLA (3) ha definido a la inteligencia artificial como una “disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico.”. Esta definición se adopta para los efectos del presente proyecto.

Uno de los primeros planteamientos es establecer la oportunidad de reglamentar la Inteligencia Artificial desde un marco jurídico. Algunos teóricos consideran que no es oportuno establecerla hasta que se cuente con un desarrollo generalizado de la misma; mientras que otros, como lo hace ELON MUSK, conforme los recuerda OREN ETZIONI (4), señalan que debe hacerse antes de que sea demasiado tarde.

En el Foro Económico de Davos se abrió el espacio para determinar la necesidad de reglamentación de la Inteligencia Artificial. Allí se explicó que organismos internacionales trabajan en la materia por cuanto justifican que la necesidad de regular este tema se genera para obtener modelos confiables, conforme fue explicado por el periódico PORTAFOLI0 (5). Allí mismo, se hace evidente la posición que tienen importantes actores en el sector, como IBM Colombia, quien con la explicación que diera Catalina Rengifo, y quien es la responsable de Asuntos Gubernamentales para IBM, señalara que: “Una eventual regulación tendría muchas aplicaciones en el país, considerando que actualmente existe una alta implementación de la Inteligencia Artificial (IA) tanto en Colombia, como en el resto del mundo. Estamos frente a un tema vital. Los sistemas de Inteligencia Artificial deben ser transparentes y explicables, y debe haber un equilibrio entre la regulación y la autorregulación” (6).

Frente al tema de la regulación y autorregulación, son varias las posiciones y más en una materia que se encuentra en constante desarrollo. Por ello se ha considera la improcedencia de establecer reglas fuertes que no coincidan a la par con los desarrollos tecnológicos e informáticos. Un ejemplo de ello son las propuestas que se han derivado en otros escenarios como el de las redes sociales a las cuales se les ha señalado ser parte de una responsabilidad social digital bajo un esquema de soft law (7). Lo anterior, es importante resaltarlo para efectos de entender que este proyecto al soportarse en un enfoque de políticas públicas generales permitirá que los desarrollos de la IA tengan un objetivo político sin limitar sus procesos evolutivos.

Otro aspecto que sería objeto de análisis para verificar la regulación de la Inteligencia Artificial correspondería a los eventuales riesgos que la misma podría generar. Al respecto, MAX TEGMARK (8), profesor de física e investigador de Inteligencia Artificial avizora una serie de peligros en la Inteligencia artificial, como el control por parte de unos sobre la misma y que su uso pueda ser impulsado en todo el planeta, a manera de ejemplo, un dictador, en donde las máquinas le obedecen.

Una reflexión importante sobre la inteligencia artificial es la que hace el profesor MAX TEGMARK (9) cuando señala: “No debemos pensar en qué pasará, sino que debemos empezar preguntando qué es lo que queremos que pase.” Por ello se plantean, a manera de ejemplo, escenarios de análisis preventivos, como el que correspondería al desaparecimiento del empleos y profesiones.

Para MARÍA J. SANTOS G. (10) debe existir una nueva regulación que preserve la autenticidad, seguridad y protección de la raza humana que involucren cuestiones éticas entendiendo que “[n]o se trata de regular la tecnología sino de regular la sociedad para que siga siendo para los humanos como ellos decidan.”.

El PLAN NACIONAL DE DESARROLL0 (11) estableció en el art. 147 la transformación Digital Pública estableciendo en el numeral 6 la priorización de tecnologías emergentes de la cuarta revolución industrial teniendo como modelo la inteligencia artificial (Al). Sobre este mandato debe recordarse que Colombia además se adhirió a los acuerdos sobre Inteligencia Artificial por ser parte de los países de la OCDE. Por este motivo, el gobierno nacional suscribió la recomendación del Consejo de la OCDE conforme lo manifestó el Ministerio de las TIC. (12)

La OCDE (13) estableció recomendaciones para la implementación de la Inteligencia Artificial. Para ello ha establecido los siguientes principios:

PRINCIPIO

Crecimiento inclusivo, desarrollo sostenible y bienestar

Valores centrados en el ser humano y equidad

Transparencia y explicabilidad

Robustez, seriedad y protección

Responsabilidad

Los princ1p1os expuestos fueron tenidos en cuenta en el articulado con el fin de implementarlos en el ordenamiento jurídico colombiano por medio de políticas públicas. A su vez, se tuvieron en cuenta las recomendaciones de la OCDE (14). A saber:

“Facilitar  la inversión  pública y privada  en  investigación y desarrollo  para estimular  la innovación en una IA confiable.

Fomentar  los ecosistemas  de IA  accesibles  con  infraestructura  y tecnologías  digitales y mecanismos para compartir datos y conocimientos.

Asegurar un entorno de políticas que abra el camino para el despliegue de sistemas IA confiables.

Capacitar a las personas con las habilidades para la IA y apoyar a los trabajadores para una transición justa.

Cooperar a través de las fronteras y los sectores para avanzar en la administración responsable de IA confiable.”.

La dogmática de la inteligencia artificial ha usado en algunos escenarios el concepto de la persona electrónica, la cual fue estudiada en la presente investigación. Dicho escenario fue desvirtuado del presente proyecto por cuanto se consideró que generaba riesgos en cuanto a la imposibilidad de asignar responsabilidades por efectos de reparación de daños. Este asunto abrió la puerta para determinar si este concepto adquiría una naturaleza jurídica diferente a las asignadas a la persona jurídica, o, por el contrario, debía tener una regulación especial dadas las semejanzas y diferencias que le atribuyen con ocasión de una inteligencia no humana. Por ello, reconocerle vida jurídica a la persona electrónica implica una nueva categoría de sujeto de derechos que genera riesgos al desconocerse los efectos que pudieran generarse de las decisiones de IA. Asimilar la existencia jurídica de una persona electrónica implica a su vez, diseñar un esquema en donde igualmente se desarrollen escenarios jurídicos que diseñen los efectos por la muerte o desaparición de esta ficción. Así, por ejemplo, sí la persona humana, al considerarse cadáver, aún es reconocida para efectos jurídicos como sujeto de responsabilidad jurídica por vía derechos y deberes, conforme lo recuerda LUIS GERMÁN ORTEGA RUIZ (15) al señalar que “al cadáver humano [cuando] se le reconoce el principio de la dignidad, implica una protección al fuero moral y físico, desde el derecho al respeto, honra, buen nombre, un derecho al descanso eterno y esto se ha consolidado, por ejemplo, en los delitos del irrespeto a cadáveres, o la prohibición de despojo, el hurto de cadáveres y en conjunto con temas que ha revisado la Corte Constitucional; frente a las exhumaciones, es decir, el rito de sepultura, la última morada del cadáver etc.”. Este aspecto es relevante para determinar sí la persona electrónica podría considerarse como sujeto de derechos, y, a su vez, de obligaciones. Sobre este asunto, el, proyecto de ley decidió no desarrollar esta figura bajo el ámbito de ser considerada como sujeto de derechos y deberes, trasladando la responsabilidad jurídica a los responsables en el uso, desarrollo e implementación de la inteligencia artificial, abarcando de esta manera, actores directos e indirectos bajo la categoría de persona jurídica  o natural que tengan la capacidad jurídica  de responder como sujeto de derecho y obligaciones.

La Inteligencia Artificial se encuentra en el orden del día de para su desarrollo constitucional en aras de establecer un marco teleológico que aspire a su uso para los fines esenciales del bien común. De allí que sea necesario recordar a JUAN FRANCISCO SÁNCHEZ BARRILA0 16 cuando explica que el derecho constitucional no puede negar la Inteligencia Artificial. Por tal razón expone posiciones como la de Esteve Pardo, Sánchez Barrilao, Muñoz Machado en las que enseña la posibilidad de adoptar conceptos jurídicos mutables con la tecnología. Ese escenario se plantea en este proyecto al adoptarse bajo los postulados de políticas públicas. Por otro lado,  se señala como eje un enfoque apriorístico, el cual busca plantear anticipadamente escenarios generales que permiten a futura determinar los efectos por el uso e implementación de la IA en aras de evitar que ésta pueda ir en contravía de principios y derechos de protección constitucional.          

LUIS GERMÁN ORTEGA RUIZ (17) concluyó que “La implementación de la Inteligencia Artificial (IA) en el derecho es factible como medio  o instrumento para la toma de decisiones jurídicas, pero no encuentra cabida como operador jurídico que remplace la inteligencia humana para decidir en derecho aquellos casos del orden cualitativo. Lo anterior, sin perjuicio de poder usarse en materia de decisiones cuantitativas pero revisables por la inteligencia   humana.”.

El presente proyecto fue tramitado bajo el número 21/2020 Cámara pero fue retirado por sus autores conforme a una reunión realizada con diferentes instituciones públicas para efectos de recibir por parte de estas diferentes propuestas para enriquecer el proyecto y darle nuevo trámite. Fue nuevamente radicado con el número 253-2022 Senado pero por tránsito legislativo fue archivado.

En cumplimiento de lo ordenado por el artículo 291 de la ley 5 de 1992 se considera que no existe circunstancia de impedimento por parte de los congresistas al no evidenciarse un beneficio particular, actual y directo con relación a las disposiciones que pretenden establecer el  presente  proyecto   de  ley,  por   ser  una   reforma   general,   abstracta   e  impersonal.

Adicionalmente, porque la ley 2003 determinó que no hay conflicto de ‘interés cuando el congresista participe, discuta, vote un proyecto de ley que otorgue beneficios o cargos de carácter general, es decir cuando el interés del congresista coincide o se fusione con los intereses de los electores. Lo anterior, sin desconocer la posibilidad de la objeción de conciencia y asuntos que son de conocimiento del fuero interno de los congresistas.

Con lo anteriormente expuesto, se presenta el presente proyecto de ley con el fin de abrir el debate democrático y adoptar las decisiones legislativas y políticas que pretendan desarrollar la Inteligencia Artificial en Colombia.

SENADO DE LAL REPÚBLICA

Secretaría General (Art. 139 y ss. Ley 5ª de 1992)

El día 01 del mes agosto de 2023 se radicó en este despacho el proyecto de ley nº 059 Acto legislativo nº          , con todos y cada uno de los requisitos constitucionales y legales por H.S. Juan Diego Echevarría Sánchez, Juan Carlos Garcés Rojas

SECRETARIO GENERAL

(1) BECERRA, JAIRO. [ET AL]. El derecho y las tecnologías de la información y la comunicación (TIC) /. Bogotá: Universidad Católica de Colombia, 2015.  Disponible en: https://publicaciones.ucatolica.edu.co/pdf/el-derecho-y-1as-tecno1ogias-de-la­ informacion-y-la-comunicacion.pdf

(2) TORRES, RAFAEL. Políticas Públicas para la Robótica y la Inteligencia Artificial. Biblioteca del Congreso Nacional de Chile. Disponible              en: https://obtienearchivo.bcn.cl/obtienearchivo?id=repositorio/I 0221 /26982/1 /Politicas Publicas_para_la_Robotica y_la Inteligencia Artificial.pdf

(3)  REAL ACADEMIA  ESPAÑOLA.  Disponible  en: [https://dle.rae.es/inteligencia#2DxmhCT].

(4) ETZIONI, OREN. ¿Cómo regular la inteligencia artificial? Septiembre 6 de 2017. The New York Times. Disponible en: [https://www.nytin1es.com/es/20 17/09/06/espanol/opinion/inteligencia-artificial-reglas-regulacion.html].

(5) PORTAFOLIO, El país se alista ante la tarea de regular la inteligencia artificial. 31 de enero de 2020. Disponible en: [https://www.portafolio.co/tendencias/el-pais-se-alista-ante-la-tarea-de-regular-la-inteligencia-artificial-537664].

(6) PORTAFOLIO, El país se alista ante la tarea de regular la inteligencia artificial. 31 de enero de 2020. Disponible en: [https://www.portafolio.co/tendencias/el-pais-se-alista-ante-la-tarea-de-regular-la-inteligencia-artificial-537664].

(7) ORTEGA, L. (2020). Facebook: derechos afectados y aspectos jurídicos de la red social. Revista Jurídicas, 17 (I), 165-186. DO!: 10.17151/jurid.2020.17. l.9. Disponible en: http://juridicas.ucaldas.edu.co/downloads/Juridicas 17(1) 9.pdf https://orcid.org/0000-0003-2957-5839

(8) REVISTA SEMANA, Inteligencia Artificial, ¿Oportunidad o amenaza? 24 de febrero de  020. Disponible en: [https://ww\v.semanacom/educacion/articulo/inteligencia-artificial-oportunidad-o-amenaza/6533601.

(9) PORTAFOLIO, Los peligros que traería la inteligencia artificial para la humanidad. 1 1 de febrero de 2020. Disponible en: [https://www.portafolio.co/tendencias/los-peli2Ios-de-la-inteligencia-artificial-537954].

(10) GONZÁLEZ, MARÍA JOSÉ SANTOS. “Regulación legal de la robótica y la inteligencia artificial: retos de futuro= Legal regulation of robotics and artificial intelligence: future challenges.” Revista Jurídica de la Universidad de León 4 (201 7): Pág. 28, 25-50. Disponible en: [http://revpubli.unileon.es/index.php/juridica/article/view/5285].

(11) REPÚBLlCA DE COLOMBIA, ley I955 de 2019. DIARIO OFICIAL. AÑO CLV N. 50964, 25 MAYO DE 2019, PAG. l. Disponible en: [http://www.suin-juriscol.gov.co/viewDocument.asp?ruta=Leyes/30036488].

(12) REPÚBLICA DE COLOMBIA, MINISTERIO DE LAS TIC, Colombia se adhiere a acuerdo sobre Inteligencias Artificial ante los países de la OCDE. Mayo 22 de 2019. Disponible en: [https://www.mintic.gov.co/portal/inicio/Sala-de­ Prensa/Noticias/100683:Colombia-se-adhiere-a-acuerdo-sobre-Inteligencia-Artificial-ante-los-paises-de-la-OCDE].

(13) ORGANIZACIÓN DE COOPERACIÓN Y DESARROLLO ECONÓMICOS, OCDE, Recomendación del Consejo de Inteligencia Artificial, Adoptado el: 21/05/20 I 9,              Disponible en: [https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449].

(14) República de Colombia, Ministerio de las TIC, Colombia se adhiere a acuerdo sobre Inteligencias Artificial ante los países de             la OCDE. Mayo 22 de 2019. Disponible en https://www.mintic.Gov.co/portal/inicio/Sala-de- Prensa/Noticias/1006 83:Colombia-se-adhiere-a-acuerdo-sobre-inteligencia-Artificial-ante-los-paises-de-Ia-OCD E15 ÜRTEGA-RUIZ, LUIS GERMÁN Y DUCUARA MOLINA, S. A. (2019). El cadáver humano y su incidencia jurídica. Revista Verba luris, 14 (42).        pp. 73-98. Disponible en: https://revistas.unilibre.edu.co/index.php/verbaiuris/article/download/5660/5272          httos://orcid.org/0000-0003-29

23Nov/23
Proyecto de Ley

Proyecto de ley nº 091 de 9 de agosto de 2023

Proyecto de ley nº 091 de 9 de agosto de 2023, mediante la cual se establece el deber de información para el uso responsable de la Inteligencia Artificial en Colombia y se dictan otras disposiciones

Bogotá D.C, 9 de agosto de 2023

Doctor, GREGORIO ELJACH PACHECO

Secretario General Senado de la República Ciudad

Asunto: Radicación de proyecto de ley “Mediante la cual se establece el deber de información para el uso responsable de la Inteligencia Artificial en Colombia y se dictan otras disposiciones”

Respetado secretario general,

En mi calidad de Senador de la República y en uso de las atribuciones que me han sido conferidas constitucional y legalmente, me permito respetuosamente radicar el proyecto de ley de referencia y, en consecuencia, le solicitamos se sirva dar inicio al trámite legislativo respectivo.

Cordialmente,

PEDRO H. FLOREZ PORRAS

Senador de la República

SANDRA RAMÍREZ LOBO SILVA

Senadora de la República

SANDRA YANET JAIMES CRUZ

Senadora de la República

JULIO ALBERTO ELÍAS VIDAL

Senador de la República

SOLEDAD TAMAYO TAMAYO

Senadora de la República

GUSTAVO ADOLFO MORENO HURTADO

Senador de la República

Proyecto de Ley nº 059 de 2023 Senado

“Mediante la cual se establece el deber de información .para el uso responsable de la Inteligencia Artificial en Colombia y se dictan otras disposiciones”.

El Congreso de Colombia

DECRETA

CAPÍTULO 1. DISPOSICIONES GENERALES

Artículo l. Objeto.

La presente ley tiene por objeto establecer un uso responsable de las Inteligencias Artificiales en Colombia, dentro de los parámetros éticos y legales que garanticen seguridad, transparencia, igualdad y equidad.

Artículo 2. Definiciones.

a)         Inteligencia Artificial: Se refiere a la tecnología capaz de replicar, mediante algoritmos, los procesos de pensamiento humanos.

b)         Inteligencia Artificial Generativa: Se refiere a un tipo de tecnología de inteligencia artificial capaz de producir diversos tipos de contenido, incluidos, pero no limitados a textos, imágenes, audio y datos sintéticos.

Artículo 3. Deber de información.

Las personas jurídicas o naturales que realicen cualquier tipo de actividad económica o académica mediante el uso o intermediación de una Inteligencia Artificial Generativa, tendrán el deber de informar que Inteligencia Artificial fue utilizada y especificar para que fue utilizada, esta información deberá estar siempre visible y disponible y ser accesible e identificable.

Artículo 4. Marco Ético.

El Gobierno Nacional diseñará un marco ético transversal para guiar el desarrollo, implementación y evaluación de sistemas de inteligencia artificial generativas que operen y se implementen en el país.

Parágrafo. Este marco Ético deberá ser diseñado en un término no mayor a seis (6) meses a partir de la entrada en vigencia de la presente ley y deberá ser sometido a revisión y actualización cada tres (3) meses a partir de su promulgación.

Parágrafo 2. La revisión y actualización periódica de la que trata el presente artículo deberá ser realizada por una comisión conformada por el Ministro (a) de Ciencia, Tecnología e Innovación o su delegado, el Ministro(a) de las Tecnologías de la Información y las Comunicaciones o su delegado, el Ministerio(a) de Comercio, Industria y Turismo o su delegado, y cualquier otra instancia gubernamental o académica competente.

Artículo 5. Estudio e Investigación.

El Gobierno Nacional incentivará y fortalecerá la formulación de programas educativos y creación de grupos de investigación universitarios encaminados a la investigación y desarrollo de Inteligencia Artificial.

Artículo 6. Jornadas de capacitaciones.

En un plazo no mayor a seis (6) a partir de la entrada en vigencia de la presente Ley, el Gobierno Nacional diseñará e implementará jornadas de capacitación en el uso de Inteligencias Artificiales, con el fin de preparar a la ciudadanía y desarrollar sus capacidades para adaptarse a las emergentes tecnologías.

Artículo 7. Plan de Acción.

El Gobierno Nacional, a través del Ministerio de Tecnologías de la Información y Comunicaciones, el Ministerio de Ciencia, Tecnología e Innovación, el Ministerio de. Comercio, Industria y Turismo, y cualquier otra instancia gubernamental o académica competente, diseñará un plan de acción para la regulación del uso responsable de la Inteligencia Artificial en Colombia en un plazo no mayor a un (1) año, contado a partir de su entrada en vigencia de la presente Ley. Este plan de acción será un documento orientador que establecerá las bases en materia de necesidad y prioridad de la regulación para estas emergentes tecnologías.

Parágrafo. Este plan de acción deberá tener en cuenta el diagnóstico y las recomendaciones formuladas por el Consejo Internacional de Inteligencia Artificial para Colombia, así como guiarse de estándares internacionales en la materia.

Artículo 8. Cooperación Internacional.

El Gobierno Nacional deberá incentivar la cooperación internacional con sectores públicos y privados, cuya finalidad sea el estudio, investigación, desarrollo e innovación en materia de inteligencia artificial, en procura de mantener las capacidades técnicas de las instituciones administrativas nacionales en la materia.

Artículo 9. Vigencia y derogatorias.

La presente Ley rige a partir de su publicación y deroga las disposiciones que le sean contrarias.

Cordialmente,

PEDRO H. FLOREZ PORRAS

Senador de la República

SANDRA RAMIREZ LOBO SILVA

Senadora de la República

SANDRA YANETH JAIMES CRUZ

Senadora de la República

JULIO ALBERTO ELÍAS VIDAL

Senador de la República

SOLEDAD TAMAYO TAMAYO

Senadora de la República

GUSTAVO ADOLFO  MORENO HURTADO

Senador de la República.

Secretaría Genenal (Art. 139 y ss Ley 5ª de 1.992)

El día   0 9 del mes Agoto del año 2023,

se radicó en este despacho el proyecto de ley nº 091. Acto Legislativo nº   ,con todos y cada uno de los requisitos constitucionales y legales por Pedro H. Flores P., Sandra Ramírez Silva, Sandra Janeth Jaimes, Julio A. Elías Vidal, Soledad Tamayo, Gustavo A. Moreno Hurtado  

SECRETARÍA GENERAL

EXPOSICIÓN DE MOTIVOS OBJETO DEL PROYECTO DE LEY

El objeto del presente proyecto de ley es establecer las bases para que las Inteligencias Artificiales en Colombia sean utilizadas de manera responsable y dentro de los parámetros éticos y legales que garanticen seguridad, transparencia, igualdad y equidad para sus usuarios y los colombianos.

JUSTIFICACIÓN

La Inteligencia Artificial (IA) hace parte fundamental de la revolución industrial que está viviendo el mundo en la actualidad y si bien estamos, como país, en un momento muy temprano para hablar de regulaciones y leyes que encasillen el uso de estas nuevas tecnologías, si estamos a tiempo para definir un marcos y empezar a desarrollar la bases institucionales, investigativas y culturales para una transición amena y una adaptación rápida a estas emergentes innovaciones que están aquí para quedarse.

Como bien se menciona en el acápite anterior, se está en un momento muy temprano para plantear regulaciones estrictas a la Inteligencia Artificial (IA), para ello sería necesario primero analizar los impactos y necesidades que traerán estas tecnologías, es por ello que el presente proyecto de ley tiene un enfoque preparativo y de planeación para garantizar un uso seguro, ético y responsable de esta tecnología en beneficio de la sociedad.

La IA está avanzando rápidamente y tiene el potencial de tener un impacto significativo en diversos aspectos de la vida cotidiana. La preparación temprana puede ayudar a estar listos como país para afrontar los desafíos y aprovechar las oportunidades que esta tecnología presenta. Algunas de las razones que justifican esta necesidad son:

l.          Seguridad y privacidad: La IA puede tener implicaciones significativas en la seguridad y privacidad de los datos. Regularla ayuda a proteger la. información personal y a evitar posibles ataques cibernéticos o el mal uso de la tecnología.

2.         Discriminación y sesgo: Los sistemas de IA puede verse afectados por sesgos inherentes en los datos con los que se entrenan. Esto puede conducir a decisiones discriminatorias o injustas, especialmente en aplicaciones como la selección de personal o en el ámbito judicial. La regulación busca mitigar estos riesgos y promover la equidad.

3.         Transparencia: La TA a menudo funciona como una caja negra, lo que significa que los procesos internos que lleva a cabo para llegar a sus conclusiones pueden ser difíciles de entender. La regulación puede exigir que los sistemas de IA sean transparentes y que puedan explicar sus decisiones, lo que es especialmente importante en aplicaciones críticas como la atención médica y la toma de decisiones en entornos sensibles.

4.         Responsabilidad: La regulación puede establecer la responsabilidad de las empresas y organizaciones que desarrollan y utilizan sistemas de IA. Esto garantiza que se puedan identificar y abordar las consecuencias negativas de los errores o mal funcionamiento de estos sistemas.

5.         Protección del consumidor: La regulación busca salvaguardar a los usuarios y consumidores de posibles abusos o prácticas engañosas relacionadas con la IA.

6.         Competencia justa: La regulación puede ayudar a prevenir prácticas monopolísticas o anticompetitivas en el desarrollo y despliegue de la  IA, permitiendo un ecosistema más justo y abierto.

Esta ley es necesaria ya que, si la Inteligencia Artificial no se regula adecuadamente, con normas precipitadas y sin un plan de acción y una infraestructura clara, pueden surgir varios riesgos significativos que afecten negativamente a al país y a la población colombiana. Algunos de estos riesgos incluyen: discriminación, violaciones de privacidad, desplazamiento laboral y riesgos éticos y morales.

Es evidente que la IA y la automatización avanzada pueden reemplazar o modificar significativamente muchos puestos de trabajo, lo que podría conducir al desempleo masivo y a la desigualdad económica si no se implementan medidas de mitigación adecuadas, las cuales deben ser previstas y analizadas dentro del contexto nacional y determinadas claramente en un plan de acción nacional.

Es importante destacar que la eventual regulación de la IA debe ser equilibrada, evitando restricciones excesivas que puedan frenar la innovación, pero también asegurándose de proteger los derechos y la seguridad de las personas. Un enfoque colaborativo, flexible y basado en principios éticos sólidos es fundamental para abordar los desafíos y aprovechar los beneficios de la IA de manera responsable.

La regulación de la IA también ha sido objeto de debate. Algunos argumentan que las regulaciones podrían restringir la innovación y el desarrollo de la IA. Además, la velocidad del avance tecnológico puede superar la capacidad de las regulaciones para mantenerse al día, es por ello que se reitera nuevamente que el enfoque de esta ley no es regular ni restringir de ninguna manera estas tecnologías, por el contrario, su espíritu va encaminado a la convivencia y en limpiar el camino para que la implementación y la transición tecnología del país sea lo más equilibrada y harmónica posible, tanto para las tecnologías como para la población colombiana.

En conclusión, la regulación de la Inteligencia Artificial es un desafío complejo, multifacético, multisectorial, y debe hacerse con responsabilidad y con todo el conocimiento técnico disponible, con referentes académicos e internacionales claros y con una ruta de implementación estudiada, esto debido a la amplia gama de aplicaciones y tecnologías involucradas y por la cantidad de aspectos que toca esta transformación tecnológica mundial.

Es por lo anterior que esta ley plantea la necesidad de un plan de acción que no solo realice en diagnostico fundamental de lo que necesita el país en esta materia y entre los temas fundamentales que debe tratar se encuentran: transparencia (tanto de lo producido por estas tecnologías como de la adquisición informática), mitigación de riesgos, protección de la privacidad y los datos, seguridad y ciberseguridad, rendición de cuentas, evaluación y certificación, colaboración internacional y fomento de la innovación responsable.

Lo anterior deberá ser diseñado con la participación de múltiples sectores tanto académicos como científicos, y estructurado de una manera integral que garantice su flexibilidad y adaptabilidad ante los constantes avances tecnológicos, lo que ayer parecía un futuro distante hoy es nuestro presente y el país necesita contar .con las herramientas para adaptarse a este nuevo mundo que está más cerca de lo que podemos imaginar.

MARCO NORMATIVO

CONPES 3920 -Plan Nacional de Explotación de Datos (Big Data). Define la política de explotación de datos (big data) y aborda cuatro ejes estructurales:

1) Generación de datos digitales,

2) cultura de protección y aprovechamiento de datos,

3) capital humano para la explotación de datos y

4) Marco jurídico, ético e institucional, que busca habilitar la generación de valor y reforzar la protección de los individuos en el contexto de disponibilidad y explotación masiva de datos.

Esta política tiene una gran relevancia como condición habilitante para el avance de la IA en el país porque los datos son un insumo clave para una de las ramas de desarrollo de soluciones basadas en aprendizaje automático.

CONPES 3975 – Política Nacional para La Transformación Digital e Inteligencia Artificial. Este documento orientador de fecha 8 de noviembre de 2019, formula una política nacional para la transformación digital e inteligencia artificial. Esta política tiene como objetivo potenciar la generación de valor social y económico en el país a través del uso estratégico de tecnologías digitales en el sector público y el sector privado, para impulsar la productividad y favorecer el bienestar de los ciudadanos, así como generar los habilitadores transversales para la transformación digital sectorial, de manera que Colombia pueda aprovechar las oportunidades y enfrentar los retos relacionados con la Cuarta Revolución Industrial.

En 2020 se presentó un documento para discusión denominado “Marco Ético para La Inteligencia Artificial en Colombia”, de la Consejería Presidencial para Asuntos Económicos y Transformación Digital, elaborado con la asesoría técnica de La Corporación Andina de Fomento, el cual tuvo como finalidad iniciar esta discusión ética sobre los usos de la inteligencia artificial en Colombia y el mundo, y presenta recomendaciones para ser adoptadas en la eventual formulación de una política de este tipo.

Igualmente, en este documento CONPES se reconoció que uno de los principales fenómenos que debía enfrentar el país, en materia de Inteligencia Artificial era el de las asimetrías de información entre diferentes actores tanto al interior del país como internacionalmente. Esto justificó la creación de una Misión de Expertos en Inteligencia Artificial, la cual reunió periódicamente a un grupo de expertos para evaluar las diferentes dimensiones de Inteligencia Artificial y producir recomendaciones en el corto, mediano y largo plazo.

CONPES 4023 – Política para la Reactivación, la Repotenciación y el Crecimiento Sostenible e Incluyente: Nuevo Compromiso por el Futuro de Colombia. Documento con fecha 11 de febrero de 2021, cuyo enfoque es la reactivación y crecimiento de la economía tras la pandemia por COVID-19, donde entre otros aspectos, se establece que las entidades públicas tienen una capacidad baja para el aprovechamiento de datos, y se evidencia la necesidad de un grupo de gobernanza de datos. Adicionalmente se plantea la necesidad de mejorar las capacidades técnicas del país en la materia, recurriendo a la cooperación internacional como una alternativa realista.

REFERENTES INTERNACIONALES

l.         Reglamento General de Protección de Datos (GDPR) – Unión Europea: Aunque no se enfoca específicamente en la regulación de la IA, el GDPR establece normas estrictas sobre la protección de datos personales, incluyendo aquellos utilizados por sistemas de IA, lo que afecta directamente el desarrollo y uso de tecnologías de IA en la región.

2.         Ley de Protección del Consumidor de Algoritmos – Nueva York, EE. UU.: Esta ley, aprobada en 2021, requiere que los proveedores de servicios financieros utilicen explicabilidad en los algoritmos utilizados para tomar decisiones relacionadas con créditos, préstamos y seguros.

3.         Ley de Transparencia en los Sistemas de Inteligencia Artificial – California, EE. UU.: Aprobada en 2019, esta ley establece requisitos para que los fabricantes de robots autónomos y sistemas de IA divulguen información sobre cómo se utilizan los datos recopilados y cómo se toman las decisiones.

4.         Marco Ético y de Seguridad para la Inteligencia Artificial – Canadá: En 2019, Canadá publicó un marco que establece principios y guías para el desarrollo ético y seguro de la IA en el país.

5.         Principios de IA del Gobierno de Singapur: Singapur ha publicado un conjunto de principios éticos para el uso de la IA, con un enfoque en la transparencia, la responsabilidad y la justicia.

6.         Ley sobre las Bases de Datos Biométricos – India: La Corte Suprema de India dictaminó en 2018 que el uso de datos biométricos, incluyendo tecnologías de reconocimiento facial, solo se puede utilizar para fines específicos y legítimos, protegiendo así la privacidad de los ciudadanos.

7.         Estrategia Nacional de IA – Emiratos Árabes. Unidos: El país ha lanzado una estrategia nacional para la IA con el objetivo de mejorar la eficiencia gubernamental y fomentar la innovación en sectores como el transporte y la salud.

Cordialmente,

PEDRO H. FLOREZ PORRAS

Senador de la República

SANDRA RAMIREZ LOBO SILVA

Senadora de la República

SANDRA YANETH JAIMES CRUZ

Senadora de la República

JULIO ALBERTO ELÍAS VIDAL

Senador de la República

SOLEDAD TAMAYO TAMAYO

Senadora de la República

GUSTAVO ADOLFO  MORENO HURTADO

Senador de la República.

Secretaría General (Art. 139 y ss Ley 5ª de 1.992)

El día 09 del mes Agoto del año 2023, se radicó en este despacho el proyecto de ley nº 91. Acto Legislativo nº   ,con todos y cada uno de los requisitos constitucionales y legales por Pedro H. Flores P., Sandra Ramírez Silva, Sandra Janeth Jaimes, Julio A. Elías Vidal, Soledad Tamayo, Gustavo A. Moreno Hurtado  

SECRETARÍA GENERAL

01Jul/23

Número 29, primer semestre 2023

ISSN 1989-5852

Título clave: Revista informática jurídica

Título abreviado: Rev. inform. jurid.

    1. Almanza Casola, Gonzalo Rafael
    2. Atencio Yero, Dinalvis
    3. Coquilo António, Neves
    4. González Olivera, Reynaldo Marcelo
    5. Guilherme Jackson, Dinis
    6. Hechavarría Derronselet, Yoendris
    7. Martínez, Cristina
    8. Reinaldo Filho, Demócrito
    9. Rivero de la Rosa, Ildefons0
    10. Rondón Aguilar, Amaury

Introducción

En este vigésimo noveno número de la Revista, aparecen artículos de colaboradores por orden alfabético.

Un agradecimiento especial a los 10 colaboradores que han aportado sus artículos para hacer posible la publicación semestral de esta revista, que lleva 14 años y medio.

Un cordial saludo para todos y gracias por vuestra colaboración.

José Cuervo Álvarez

Almanza Casola, Gonzalo Rafael

Endereço: Rua Padre Fidalgo
INSTITUICIÓN: Instituto Superior Politécnico de Bié

Concepción Teórica-Metodológica, para el aprendizaje del inglés como lengua extranjera en el Instituto Superior Politécnico de Bié (Trabajo en colaboración don Dinis Guilherme Jackson y Neves Coquilo António) (29 de mayo de 2023)

Atencio Yero, Dinalvis

Licenciado en Educación en la especialidad de informática, profesor de la ESBU “Pedro de Cespedes del Castillo”, municipio Media Luna, Granma, [email protected]

Software para la aplicación de las operaciones aritméticas en la resolución de problemas para Ingenieros (30 de junio de 2023) (Trabajo en colaboración con Ildefonso Rivero de la Rosa y Amaury Rondón Aguilar)

Coquilo António, Neves

Professor Assistente. Chefe do Departamento de Linguas Instituto Superior Politécnico do Bié, Angola. Endereço: La Instituiçao a que o autor pertenece; Antiga Universidade José Eduardo dos Santos. (Escola Superior Politécnico do Bié) Actual Instituto Superior Politécnico do Bié, localizada na rua Padre Fidalgo.

Concepción Teórica-Metodológica, para el aprendizaje del inglés como lengua extranjera en el Instituto Superior Politécnico de Bié (Trabajo en colaboración don Dinis Guilherme Jackson y Gonzalo Rafael Almanza Casola) (29 de mayo de 2023)

O aproveitamento económico das nações mundiais através da covid-19, numa perspectiva angolana (29 de junio de 2023)

González Olivera, Reynaldo Marcelo

 Licenciado en Educación en la especialidad Educación Laboral-Informática. Profesor Instructor. Departamento de Informática. Universidad de Granma. Sede Blas Roca Calderío, Manzanillo 87510 Granma, Cuba [email protected] y [email protected]

Software educativo “Aprende y Dibuja” una alternativa para contribuir al aprendizaje del Dibujo Técnico en la Secundaria Básica (30 de enero de 2023) (Trabajo en colaboración con Lic. Yoendris Hechevarria Derronselet)

Sitio web: “Redes Informática” para favorecer el aprendizaje del contenido redes informáticas en el nivel educativo preuniversitario (19 de abril de 2023) 

Guilherme Jackson, Dinis

Endereço: Rua Padre Fidalgo
E-mail: [email protected];
INSTITUICIÓN: Instituto Superior Politécnico de Bié

Concepción Teórica-Metodológica, para el aprendizaje del inglés como lengua extranjera en el Instituto Superior Politécnico de Bié (Trabajo en colaboración don Neves Coquilo António y Gonzalo Rafael Almanza Casola) (29 de mayo de 2023)

Hechavarría Derronselet, Yoendris

Licenciado en Educación Laboral. Profesor Asistente del departamento Educación Laboral-Informática de la Universidad de Granma Sede “Blas Roca Calderío”

Software educativo “Aprende y Dibuja” una alternativa para contribuir al aprendizaje del Dibujo Técnico en la Secundaria Básica (30 de enero de 2023) (Trabajo en colaboración con Lic. Reynaldo Marcelo González Olivera)

Martínez, Cristina

Departamento Legal. Áudea Seguridad de la Información.

Las investigaciones a OpenAI, propietaria de ChatGPT, en la Unión Europea, pero también en España (22 de junio de 2023)

Reinaldo Filho, Demócrito

The author is a Judge of the Court of Justice of Pernambuco/Brazil. He holds a doctorate in law. He was founder and President of the Brazilian Institute of Informatics Policy and Law.

Contact information:
Phone: 55-81-992783498 (whatsapp)
e-mail: [email protected]
URL: https://www.tjpe.jus.br/web/tribunal-de-justica/drrf

O fenômeno do chatgpt desperta a necesidade da Regulamentação da Inteligência Artificial (9 de marzo de 2023)

The ChatGPT phenomenon sparks the need for AI regulation (2 de abril de 2023)

O ChatGPT é um sistema de inteligência Artificial de “Alto Risco” (2 de abril de 2023)

O Markets in Crypto-Assets (MiCA): a proposta europeia para regular o mercado de criptoativos (16 de mayo de 2023)

Rivero de la Rosa, Ildefons0

Licenciado en Educación en la especialidad de Matemáticas. Máster en ciencia de la educación y profesor auxiliar de la carrera Ingeniería Agrónoma, CUM Media Luna, Universidad de Granma [email protected]

Software para la aplicación de las operaciones aritméticas en la resolución de problemas para Ingenieros (30 de marzo de 2023) (Trabajo en colaboración con Amaury Rondón Aguilar y Dinalvis Atencio Yero)

Rondón Aguilar, Amaury

Licenciado en Matemática, profesor asistente de la Ingeniería Agrónoma, CUM Media Luna, Universidad de Granma, Cuba, [email protected]

Software para la aplicación de las operaciones aritméticas en la resolución de problemas para Ingenieros (30 de marzo de 2023) (Trabajo en colaboración con Ildefonso Rivero de la Rosa y Dinalvis Atencio Yero)

30Jun/21

COM 2021/206 FINAL

COM 2021/206 FINAL. Proposal for a regulation of the European Parliament and of the Council Laying Down harmonised rules on Artificial Intelligence (Artificial Inteligence Act) and amending certain union legislative Acts.

Brussels, 21.4.2021

COM(2021) 206 final 2021/0106 (COD)

Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS

1. CONTEXT OF THE PROPOSAL

1.1. Reasons for and objectives of the proposal

This explanatory memorandum accompanies the proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Artificial Intelligence (AI) is a fast evolving family of technologies that can bring a wide array of economic and societal benefits across the entire spectrum of industries and social activities. By improving prediction, optimising operations and resource allocation, and personalising service delivery, the use of artificial intelligence can support socially and environmentally beneficial outcomes and provide key competitive advantages to companies and the European economy. Such action is especially needed in high-impact sectors, including climate change, environment and health, the public sector, finance, mobility, home affairs and agriculture. However, the same elements and techniques that power the socio-economic benefits of AI can also bring about new risks or negative consequences for individuals or the society. In light of the speed of technological change and possible challenges, the EU is committed to strive for a balanced approach. It is in the Union interest to preserve the EU’s technological leadership and to ensure that Europeans can benefit from new technologies developed and functioning according to Union values, fundamental rights and principles.

This proposal delivers on the political commitment by President von der Leyen, who announced in her political guidelines for the 2019-2024 Commission “A Union that strives for more” (1), that the Commission would put forward legislation for a coordinated European approach on the human and ethical implications of AI. Following on that announcement, on 19 February 2020 the Commission published the White Paper on AI – A European approach to excellence and trust (2). The White Paper sets out policy options on how to achieve the twin objective of promoting the uptake of AI and of addressing the risks associated with certain uses of such technology. This proposal aims to implement the second objective for the development of an ecosystem of trust by proposing a legal framework for trustworthy AI. The proposal is based on EU values and fundamental rights and aims to give people and other users the confidence to embrace AI-based solutions, while encouraging businesses to develop them. AI should be a tool for people and be a force for good in society with the ultimate aim of increasing human well-being. Rules for AI available in the Union market or otherwise affecting people in the Union should therefore be human centric, so that people can trust that the technology is used in a way that is safe and compliant with the law, including the respect of fundamental rights. Following the publication of the White Paper, the Commission launched a broad stakeholder consultation, which was met with a great interest by a large number of stakeholders who were largely supportive of regulatory intervention to address the challenges and concerns raised by the increasing use of AI.

The proposal also responds to explicit requests from the European Parliament (EP) and the European Council, which have repeatedly expressed calls for legislative action to ensure a well-functioning internal market for artificial intelligence systems (‘AI systems’) where both benefits and risks of AI are adequately addressed at Union level. It supports the objective of the Union being a global leader in the development of secure, trustworthy and ethical artificial intelligence as stated by the European Council (3) and ensures the protection of ethical principles as specifically requested by the European Parliament (4).

In 2017, the European Council called for a ‘sense of urgency to address emerging trends’ including ‘issues such as artificial intelligence …, while at the same time ensuring a high level of data protection, digital rights and ethical standards’ (5). In its 2019 Conclusions on the Coordinated Plan on the development and use of artificial intelligence Made in Europe (6), the Council further highlighted the importance of ensuring that European citizens’ rights are fully respected and called for a review of the existing relevant legislation to make it fit for purpose for the new opportunities and challenges raised by AI. The European Council has also called for a clear determination of the AI applications that should be considered high-risk (7).

The most recent Conclusions from 21 October 2020 further called for addressing the opacity, complexity, bias, a certain degree of unpredictability and partially autonomous behaviour of certain AI systems, to ensure their compatibility with fundamental rights and to facilitate the enforcement of legal rules (8).

The European Parliament has also undertaken a considerable amount of work in the area of AI. In October 2020, it adopted a number of resolutions related to AI, including on ethics (9), liability (10) and copyright (11). In 2021, those were followed by resolutions on AI in criminal matters (12) and in education, culture and the audio-visual sector (13). The EP Resolution on a Framework of Ethical Aspects of Artificial Intelligence, Robotics and Related Technologies specifically recommends to the Commission to propose legislative action to harness the opportunities and benefits of AI, but also to ensure protection of ethical principles. The resolution includes a text of the legislative proposal for a regulation on ethical principles for the development, deployment and use of AI, robotics and related technologies. In accordance with the political commitment made by President von der Leyen in her Political Guidelines as regards resolutions adopted by the European Parliament under Article 225 TFEU, this proposal takes into account the aforementioned resolution of the European Parliament in full respect of proportionality, subsidiarity and better law making principles.

Against this political context, the Commission puts forward the proposed regulatory framework on Artificial Intelligence with the following specific objectives:

• ensure that AI systems placed on the Union market and used are safe and respect existing law on fundamental rights and Union values;

• ensure legal certainty to facilitate investment and innovation in AI;

• enhance governance and effective enforcement of existing law on fundamental rights and safety requirements applicable to AI systems;

• facilitate the development of a single market for lawful, safe and trustworthy AI applications and prevent market fragmentation.

To achieve those objectives, this proposal presents a balanced and proportionate horizontal regulatory approach to AI that is limited to the minimum necessary requirements to address the risks and problems linked to AI, without unduly constraining or hindering technological development or otherwise disproportionately increasing the cost of placing AI solutions on the market. The proposal sets a robust and flexible legal framework. On the one hand, it is comprehensive and future-proof in its fundamental regulatory choices, including the principle-based requirements that AI systems should comply with. On the other hand, it puts in place a proportionate regulatory system centred on a well-defined risk-based regulatory approach that does not create unnecessary restrictions to trade, whereby legal intervention is tailored to those concrete situations where there is a justified cause for concern or where such concern can reasonably be anticipated in the near future. At the same time, the legal framework includes flexible mechanisms that enable it to be dynamically adapted as the technology evolves and new concerning situations emerge.

The proposal sets harmonised rules for the development, placement on the market and use of AI systems in the Union following a proportionate risk-based approach. It proposes a single future-proof definition of AI. Certain particularly harmful AI practices are prohibited as contravening Union values, while specific restrictions and safeguards are proposed in relation to certain uses of remote biometric identification systems for the purpose of law enforcement. The proposal lays down a solid risk methodology to define “high-risk” AI systems that pose significant risks to the health and safety or fundamental rights of persons. Those AI systems will have to comply with a set of horizontal mandatory requirements for trustworthy AI and follow conformity assessment procedures before those systems can be placed on the Union market. Predictable, proportionate and clear obligations are also placed on providers and users of those systems to ensure safety and respect of existing legislation protecting fundamental rights throughout the whole AI systems’ lifecycle. For some specific AI systems, only minimum transparency obligations are proposed, in particular when chatbots or ‘deep fakes’ are used.

The proposed rules will be enforced through a governance system at Member States level, building on already existing structures, and a cooperation mechanism at Union level with the establishment of a European Artificial Intelligence Board. Additional measures are also proposed to support innovation, in particular through AI regulatory sandboxes and other measures to reduce the regulatory burden and to support Small and Medium-Sized Enterprises (‘SMEs’) and start-ups.

1.2. Consistency with existing policy provisions in the policy area

The horizontal nature of the proposal requires full consistency with existing Union legislation applicable to sectors where high-risk AI systems are already used or likely to be used in the near future.

Consistency is also ensured with the EU Charter of Fundamental Rights and the existing secondary Union legislation on data protection, consumer protection, non-discrimination and gender equality. The proposal is without prejudice and complements the General Data Protection Regulation (Regulation (EU) 2016/679) and the Law Enforcement Directive (Directive (EU) 2016/680) with a set of harmonised rules applicable to the design, development and use of certain high-risk AI systems and restrictions on certain uses of remote biometric identification systems. Furthermore, the proposal complements existing Union law on non-discrimination with specific requirements that aim to minimise the risk of algorithmic discrimination, in particular in relation to the design and the quality of data sets used for the development of AI systems complemented with obligations for testing, risk management, documentation and human oversight throughout the AI systems’ lifecycle. The proposal is without prejudice to the application of Union competition law.

As regards high-risk AI systems which are safety components of products, this proposal will be integrated into the existing sectoral safety legislation to ensure consistency, avoid duplications and minimise additional burdens. In particular, as regards high-risk AI systems related to products covered by the New Legislative Framework (NLF) legislation (e.g. machinery, medical devices, toys), the requirements for AI systems set out in this proposal will be checked as part of the existing conformity assessment procedures under the relevant NLF legislation. With regard to the interplay of requirements, while the safety risks specific to AI systems are meant to be covered by the requirements of this proposal, NLF legislation aims at ensuring the overall safety of the final product and therefore may contain specific requirements regarding the safe integration of an AI system into the final product. The proposal for a Machinery Regulation, which is adopted on the same day as this proposal fully reflects this approach. As regards high-risk AI systems related to products covered by relevant Old Approach legislation (e.g. aviation, cars), this proposal would not directly apply. However, the ex-ante essential requirements for high-risk AI systems set out in this proposal will have to be taken into account when adopting relevant implementing or delegated legislation under those acts.

As regards AI systems provided or used by regulated credit institutions, the authorities responsible for the supervision of the Union’s financial services legislation should be designated as competent authorities for supervising the requirements in this proposal to ensure a coherent enforcement of the obligations under this proposal and the Union’s financial services legislation where AI systems are to some extent implicitly regulated in relation to the internal governance system of credit institutions. To further enhance consistency, the conformity assessment procedure and some of the providers’ procedural obligations under this proposal are integrated into the procedures under Directive 2013/36/EU on access to the activity of credit institutions and the prudential supervisión (14).

This proposal is also consistent with the applicable Union legislation on services, including on intermediary services regulated by the e-Commerce Directive 2000/31/EC (15) and the Commission’s recent proposal for the Digital Services Act (DSA) (16).

In relation to AI systems that are components of large-scale IT systems in the Area of Freedom, Security and Justice managed by the European Union Agency for the Operational Management of Large-Scale IT Systems (eu-LISA), the proposal will not apply to those AI systems that have been placed on the market or put into service before one year has elapsed from the date of application of this Regulation, unless the replacement or amendment of those legal acts leads to a significant change in the design or intended purpose of the AI system or AI systems concerned.

1.3. Consistency with other Union policies

The proposal is part of a wider comprehensive package of measures that address problems posed by the development and use of AI, as examined in the White Paper on AI. Consistency and complementarity is therefore ensured with other ongoing or planned initiatives of the Commission that also aim to address those problems, including the revision of sectoral product legislation (e.g. the Machinery Directive, the General Product Safety Directive) and initiatives that address liability issues related to new technologies, including AI systems. Those initiatives will build on and complement this proposal in order to bring legal clarity and foster the development of an ecosystem of trust in AI in Europe.

The proposal is also coherent with the Commission’s overall digital strategy in its contribution to promoting technology that works for people, one of the three main pillars of the policy orientation and objectives announced in the Communication ‘Shaping Europe’s digital future’ (17). It lays down a coherent, effective and proportionate framework to ensure AI is developed in ways that respect people’s rights and earn their trust, making Europe fit for the digital age and turning the next ten years into the Digital Decade (18).

Furthermore, the promotion of AI-driven innovation is closely linked to the Data Governance Act (19), the Open Data Directive (20) and other initiatives under the EU strategy for data (21), which will establish trusted mechanisms and services for the re-use, sharing and pooling of data that are essential for the development of data-driven AI models of high quality.

The proposal also strengthens significantly the Union’s role to help shape global norms and standards and promote trustworthy AI that is consistent with Union values and interests. It provides the Union with a powerful basis to engage further with its external partners, including third countries, and at international fora on issues relating to AI.

2. LEGAL BASIS, SUBSIDIARITY AND PROPORTIONALITY

2.1. Legal basis

The legal basis for the proposal is in the first place Article 114 of the Treaty on the Functioning of the European Union (TFEU), which provides for the adoption of measures to ensure the establishment and functioning of the internal market.

This proposal constitutes a core part of the EU digital single market strategy. The primary objective of this proposal is to ensure the proper functioning of the internal market by setting harmonised rules in particular on the development, placing on the Union market and the use of products and services making use of AI technologies or provided as stand-alone AI systems. Some Member States are already considering national rules to ensure that AI is safe and is developed and used in compliance with fundamental rights obligations. This will likely lead to two main problems: i) a fragmentation of the internal market on essential elements regarding in particular the requirements for the AI products and services, their marketing, their use, the liability and the supervision by public authorities, and ii) the substantial diminishment of legal certainty for both providers and users of AI systems on how existing and new rules will apply to those systems in the Union. Given the wide circulation of products and services across borders, these two problems can be best solved through EU harmonizing legislation.

Indeed, the proposal defines common mandatory requirements applicable to the design and development of certain AI systems before they are placed on the market that will be further operationalised through harmonised technical standards. The proposal also addresses the situation after AI systems have been placed on the market by harmonising the way in which ex-post controls are conducted.

In addition, considering that this proposal contains certain specific rules on the protection of individuals with regard to the processing of personal data, notably restrictions of the use of AI systems for ‘real-time’ remote biometric identification in publicly accessible spaces for the purpose of law enforcement, it is appropriate to base this regulation, in as far as those specific rules are concerned, on Article 16 of the TFEU.

2.2. Subsidiarity (for non-exclusive competence)

The nature of AI, which often relies on large and varied datasets and which may be embedded in any product or service circulating freely within the internal market, entails that the objectives of this proposal cannot be effectively achieved by Member States alone. Furthermore, an emerging patchwork of potentially divergent national rules will hamper the seamless circulation of products and services related to AI systems across the EU and will be ineffective in ensuring the safety and protection of fundamental rights and Union values across the different Member States. National approaches in addressing the problems will only create additional legal uncertainty and barriers, and will slow market uptake of AI.

The objectives of this proposal can be better achieved at Union level to avoid a further fragmentation of the Single Market into potentially contradictory national frameworks preventing the free circulation of goods and services embedding AI. A solid European regulatory framework for trustworthy AI will also ensure a level playing field and protect all people, while strengthening Europe’s competitiveness and industrial basis in AI. Only common action at Union level can also protect the Union’s digital sovereignty and leverage its tools and regulatory powers to shape global rules and standards.

2.3. Proportionality

The proposal builds on existing legal frameworks and is proportionate and necessary to achieve its objectives, since it follows a risk-based approach and imposes regulatory burdens only when an AI system is likely to pose high risks to fundamental rights and safety. For other, non-high-risk AI systems, only very limited transparency obligations are imposed, for example in terms of the provision of information to flag the use of an AI system when interacting with humans. For high-risk AI systems, the requirements of high quality data, documentation and traceability, transparency, human oversight, accuracy and robustness, are strictly necessary to mitigate the risks to fundamental rights and safety posed by AI and that are not covered by other existing legal frameworks. Harmonised standards and supporting guidance and compliance tools will assist providers and users in complying with the requirements laid down by the proposal and minimise their costs. The costs incurred by operators are proportionate to the objectives achieved and the economic and reputational benefits that operators can expect from this proposal.

2.4. Choice of the instrument

The choice of a regulation as a legal instrument is justified by the need for a uniform application of the new rules, such as definition of AI, the prohibition of certain harmful AI-enabled practices and the classification of certain AI systems. The direct applicability of a Regulation, in accordance with Article 288 TFEU, will reduce legal fragmentation and facilitate the development of a single market for lawful, safe and trustworthy AI systems. It will do so, in particular, by introducing a harmonised set of core requirements with regard to AI systems classified as high-risk and obligations for providers and users of those systems, improving the protection of fundamental rights and providing legal certainty for operators and consumers alike.

At the same time, the provisions of the regulation are not overly prescriptive and leave room for different levels of Member State action for elements that do not undermine the objectives of the initiative, in particular the internal organisation of the market surveillance system and the uptake of measures to foster innovation.

3. RESULTS OF EX-POST EVALUATIONS, STAKEHOLDER CONSULTATIONS AND IMPACT ASSESSMENTS

3.1. Stakeholder consultation

This proposal is the result of extensive consultation with all major stakeholders, in which the general principles and minimum standards for consultation of interested parties by the Commission were applied.

An online public consultation was launched on 19 February 2020 along with the publication of the White Paper on Artificial Intelligence and ran until 14 June 2020. The objective of that consultation was to collect views and opinions on the White Paper. It targeted all interested stakeholders from the public and private sectors, including governments, local authorities, commercial and non-commercial organisations, social partners, experts, academics and citizens. After analysing all the responses received, the Commission published a summary outcome and the individual responses on its website (22).

In total, 1215 contributions were received, of which 352 were from companies or business organisations/associations, 406 from individuals (92%individuals from EU ), 152 on behalf of academic/research institutions, and 73 from public authorities. Civil society’s voices were represented by 160 respondents (among which 9 consumers’ organisations, 129 non-governmental organisations and 22 trade unions), 72 respondents contributed as ‘others’. Of the 352 business and industry representatives, 222 were companies and business representatives, 41.5% of which were micro, small and medium-sized enterprises. The rest were business associations. Overall, 84% of business and industry replies came from the EU-27. Depending on the question, between 81 and 598 of the respondents used the free text option to insert comments. Over 450 position papers were submitted through the EU Survey website, either in addition to questionnaire answers (over 400) or as stand-alone contributions (over 50).

Overall, there is a general agreement amongst stakeholders on a need for action. A large majority of stakeholders agree that legislative gaps exist or that new legislation is needed. However, several stakeholders warn the Commission to avoid duplication, conflicting obligations and overregulation. There were many comments underlining the importance of a technology neutral and proportionate regulatory framework.

Stakeholders mostly requested a narrow, clear and precise definition for AI. Stakeholders also highlighted that besides the clarification of the term of AI, it is important to define ‘risk’, ‘high-risk’, ‘low-risk’, ‘remote biometric identification’ and ‘harm’.

Most of the respondents are explicitly in favour of the risk-based approach. Using a risk-based framework was considered a better option than blanket regulation of all AI systems. The types of risks and threats should be based on a sector-by-sector and case-by-case approach. Risks also should be calculated taking into account the impact on rights and safety.

Regulatory sandboxes could be very useful for the promotion of AI and are welcomed by certain stakeholders, especially the Business Associations.

Among those who formulated their opinion on the enforcement models, more than 50%, especially from the business associations, were in favour of a combination of an ex-ante risk self-assessment and an ex-post enforcement for high-risk AI systems.

3.2. Collection and use of expertise

The proposal builds on two years of analysis and close involvement of stakeholders, including academics, businesses, social partners, non-governmental organisations, Member States and citizens. The preparatory work started in 2018 with the setting up of a High-Level Expert Group on AI (HLEG) which had an inclusive and broad composition of 52 well-known experts tasked to advise the Commission on the implementation of the Commission’s Strategy on Artificial Intelligence. In April 2019, the Commission supported (23) the key requirements set out in the HLEG ethics guidelines for Trustworthy AI (24), which had been revised to take into account more than 500 submissions from stakeholders. The key requirements reflect a widespread and common approach, as evidenced by a plethora of ethical codes and principles developed by many private and public organisations in Europe and beyond, that AI development and use should be guided by certain essential value-oriented principles. The Assessment List for Trustworthy Artificial Intelligence (ALTAI) (25) made those requirements operational in a piloting process with over 350 organisations.

In addition, the AI Alliance (26) was formed as a platform for approximately 4000 stakeholders to debate the technological and societal implications of AI, culminating in a yearly AI Assembly.

The White Paper on AI further developed this inclusive approach, inciting comments from more than 1250 stakeholders, including over 450 additional position papers. As a result, the Commission published an Inception Impact Assessment, which in turn attracted more than 130 comments (27). Additional stakeholder workshops and events were also organised the results of which support the analysis in the impact assessment and the policy choices made in this proposal (28). An external study was also procured to feed into the impact assessment.

3.3. Impact assessment

In line with its “Better Regulation” policy, the Commission conducted an impact assessment for this proposal examined by the Commission’s Regulatory Scrutiny Board. A meeting with the Regulatory Scrutiny Board was held on 16 December 2020, which was followed by a negative opinion. After substantial revision of the impact assessment to address the comments and a resubmission of the impact assessment, the Regulatory Scrutiny Board issued a positive opinion on 21 March 2021. The opinions of the Regulatory Scrutiny Board, the recommendations and an explanation of how they have been taken into account are presented in Annex 1 of the impact assessment.

The Commission examined different policy options to achieve the general objective of the proposal, which is to ensure the proper functioning of the single market by creating the conditions for the development and use of trustworthy AI in the Union.

Four policy options of different degrees of regulatory intervention were assessed:

• Option 1: EU legislative instrument setting up a voluntary labelling scheme;

• Option 2: a sectoral, “ad-hoc” approach;

• Option 3: Horizontal EU legislative instrument following a proportionate risk-based approach;

• Option 3+: Horizontal EU legislative instrument following a proportionate risk-based approach + codes of conduct for non-high-risk AI systems;

• Option 4: Horizontal EU legislative instrument establishing mandatory requirements for all AI systems, irrespective of the risk they pose.

According to the Commission’s established methodology, each policy option was evaluated against economic and societal impacts, with a particular focus on impacts on fundamental rights. The preferred option is option 3+, a regulatory framework for high-risk AI systems only, with the possibility for all providers of non-high-risk AI systems to follow a code of conduct. The requirements will concern data, documentation and traceability, provision of information and transparency, human oversight and robustness and accuracy and would be mandatory for high-risk AI systems. Companies that introduced codes of conduct for other AI systems would do so voluntarily.

The preferred option was considered suitable to address in the most effective way the objectives of this proposal. By requiring a restricted yet effective set of actions from AI developers and users, the preferred option limits the risks of violation of fundamental rights and safety of people and foster effective supervision and enforcement, by targeting the requirements only to systems where there is a high risk that such violations could occur. As a result, that option keeps compliance costs to a minimum, thus avoiding an unnecessary slowing of uptake due to higher prices and compliance costs. In order to address possible disadvantages for SMEs, this option includes several provisions to support their compliance and reduce their costs, including creation of regulatory sandboxes and obligation to consider SMEs interests when setting fees related to conformity assessment.

The preferred option will increase people’s trust in AI, companies will gain in legal certainty, and Member States will see no reason to take unilateral action that could fragment the single market. As a result of higher demand due to higher trust, more available offers due to legal certainty, and the absence of obstacles to cross-border movement of AI systems, the single market for AI will likely flourish. The European Union will continue to develop a fast-growing AI ecosystem of innovative services and products embedding AI technology or stand-alone AI systems, resulting in increased digital autonomy.

Businesses or public authorities that develop or use AI applications that constitute a high risk for the safety or fundamental rights of citizens would have to comply with specific requirements and obligations. Compliance with these requirements would imply costs amounting to approximately EUR € 6000 to EUR € 7000 for the supply of an average high-risk AI system of around EUR € 170000 by 2025. For AI users, there would also be the annual cost for the time spent on ensuring human oversight where this is appropriate, depending on the use case. Those have been estimated at approximately EUR € 5000 to EUR € 8000 per year. Verification costs could amount to another EUR € 3000 to EUR € 7500 for suppliers of high-risk AI. Businesses or public authorities that develop or use any AI applications not classified as high risk would only have minimal obligations of information. However, they could choose to join others and together adopt a code of conduct to follow suitable requirements, and to ensure that their AI systems are trustworthy. In such a case, costs would be at most as high as for high-risk AI systems, but most probably lower.

The impacts of the policy options on different categories of stakeholders (economic operators/ business; conformity assessment bodies, standardisation bodies and other public bodies; individuals/citizens; researchers) are explained in detail in Annex 3 of the Impact assessment supporting this proposal.

3.4. Regulatory fitness and simplification

This proposal lays down obligation that will apply to providers and users of high-risk AI systems. For providers who develop and place such systems on the Union market, it will create legal certainty and ensure that no obstacle to the cross-border provision of AI-related services and products emerge. For companies using AI, it will promote trust among their customers. For national public administrations, it will promote public trust in the use of AI and strengthen enforcement mechanisms (by introducing a European coordination mechanism, providing for appropriate capacities, and facilitating audits of the AI systems with new requirements for documentation, traceability and transparency). Moreover, the framework will envisage specific measures supporting innovation, including regulatory sandboxes and specific measures supporting small-scale users and providers of high-risk AI systems to comply with the new rules.

The proposal also specifically aims at strengthening Europe’s competitiveness and industrial basis in AI. Full consistency is ensured with existing sectoral Union legislation applicable to

AI systems (e.g. on products and services) that will bring further clarity and simplify the enforcement of the new rules.

3.5. Fundamental rights

The use of AI with its specific characteristics (e.g. opacity, complexity, dependency on data, autonomous behaviour) can adversely affect a number of fundamental rights enshrined in the EU Charter of Fundamental Rights (‘the Charter’). This proposal seeks to ensure a high level of protection for those fundamental rights and aims to address various sources of risks through a clearly defined risk-based approach. With a set of requirements for trustworthy AI and proportionate obligations on all value chain participants, the proposal will enhance and promote the protection of the rights protected by the Charter: the right to human dignity (Article 1), respect for private life and protection of personal data (Articles 7 and 8), non-discrimination (Article 21) and equality between women and men (Article 23). It aims to prevent a chilling effect on the rights to freedom of expression (Article 11) and freedom of assembly (Article 12), to ensure protection of the right to an effective remedy and to a fair trial, the rights of defence and the presumption of innocence (Articles 47 and 48), as well as the general principle of good administration. Furthermore, as applicable in certain domains, the proposal will positively affect the rights of a number of special groups, such as the workers’ rights to fair and just working conditions (Article 31), a high level of consumer protection (Article 28), the rights of the child (Article 24) and the integration of persons with disabilities (Article 26). The right to a high level of environmental protection and the improvement of the quality of the environment (Article 37) is also relevant, including in relation to the health and safety of people. The obligations for ex ante testing, risk management and human oversight will also facilitate the respect of other fundamental rights by minimising the risk of erroneous or biased AI-assisted decisions in critical areas such as education and training, employment, important services, law enforcement and the judiciary. In case infringements of fundamental rights still happen, effective redress for affected persons will be made possible by ensuring transparency and traceability of the AI systems coupled with strong ex post controls.

This proposal imposes some restrictions on the freedom to conduct business (Article 16) and the freedom of art and science (Article 13) to ensure compliance with overriding reasons of public interest such as health, safety, consumer protection and the protection of other fundamental rights (‘responsible innovation’) when high-risk AI technology is developed and used. Those restrictions are proportionate and limited to the minimum necessary to prevent and mitigate serious safety risks and likely infringements of fundamental rights.

The increased transparency obligations will also not disproportionately affect the right to protection of intellectual property (Article 17(2)), since they will be limited only to the minimum necessary information for individuals to exercise their right to an effective remedy and to the necessary transparency towards supervision and enforcement authorities, in line with their mandates. Any disclosure of information will be carried out in compliance with relevant legislation in the field, including Directive 2016/943 on the protection of undisclosed know-how and business information (trade secrets) against their unlawful acquisition, use and disclosure. When public authorities and notified bodies need to be given access to confidential information or source code to examine compliance with substantial obligations, they are placed under binding confidentiality obligations.

4. BUDGETARY IMPLICATIONS

Member States will have to designate supervisory authorities in charge of implementing the legislative requirements. Their supervisory function could build on existing arrangements, for example regarding conformity assessment bodies or market surveillance, but would require sufficient technological expertise and human and financial resources. Depending on the pre-existing structure in each Member State, this could amount to 1 to 25 Full Time Equivalents per Member State.

A detailed overview of the costs involved is provided in the ‘financial statement’ linked to this proposal.

5. OTHER ELEMENTS

5.1. Implementation plans and monitoring, evaluation and reporting arrangements

Providing for a robust monitoring and evaluation mechanism is crucial to ensure that the proposal will be effective in achieving its specific objectives. The Commission will be in charge of monitoring the effects of the proposal. It will establish a system for registering stand-alone high-risk AI applications in a public EU-wide database. This registration will also enable competent authorities, users and other interested people to verify if the high-risk AI system complies with the requirements laid down in the proposal and to exercise enhanced oversight over those AI systems posing high risks to fundamental rights. To feed this database, AI providers will be obliged to provide meaningful information about their systems and the conformity assessment carried out on those systems.

Moreover, AI providers will be obliged to inform national competent authorities about serious incidents or malfunctioning that constitute a breach of fundamental rights obligations as soon as they become aware of them, as well as any recalls or withdrawals of AI systems from the market. National competent authorities will then investigate the incidents/or malfunctioning, collect all the necessary information and regularly transmit it to the Commission with adequate metadata. The Commission will complement this information on the incidents by a comprehensive analysis of the overall market for AI.

The Commission will publish a report evaluating and reviewing the proposed AI framework five years following the date on which it becomes applicable.

5.2. Detailed explanation of the specific provisions of the proposal

5.2.1. SCOPE AND DEFINITIONS (TITLE I)

Title I defines the subject matter of the regulation and the scope of application of the new rules that cover the placing on the market, putting into service and use of AI systems. It also sets out the definitions used throughout the instrument. The definition of AI system in the legal framework aims to be as technology neutral and future proof as possible, taking into account the fast technological and market developments related to AI. In order to provide the needed legal certainty, Title I is complemented by Annex I, which contains a detailed list of approaches and techniques for the development of AI to be adapted by the Commission in line with new technological developments. Key participants across the AI value chain are also clearly defined such as providers and users of AI systems that cover both public and private operators to ensure a level playing field.

5.2.2. PROHIBITED ARTIFICIAL INTELLIGENCE PRACTICES (TITLE II)

Title II establishes a list of prohibited AI. The regulation follows a risk-based approach, differentiating between uses of AI that create (i) an unacceptable risk, (ii) a high risk, and (iii) low or minimal risk. The list of prohibited practices in Title II comprises all those AI systems whose use is considered unacceptable as contravening Union values, for instance by violating fundamental rights. The prohibitions covers practices that have a significant potential to manipulate persons through subliminal techniques beyond their consciousness or exploit vulnerabilities of specific vulnerable groups such as children or persons with disabilities in order to materially distort their behaviour in a manner that is likely to cause them or another person psychological or physical harm. Other manipulative or exploitative practices affecting adults that might be facilitated by AI systems could be covered by the existing data protection, consumer protection and digital service legislation that guarantee that natural persons are properly informed and have free choice not to be subject to profiling or other practices that might affect their behaviour. The proposal also prohibits AI-based social scoring for general purposes done by public authorities. Finally, the use of ‘real time’ remote biometric identification systems in publicly accessible spaces for the purpose of law enforcement is also prohibited unless certain limited exceptions apply.

5.2.3. HIGH-RISK AI SYSTEMS (TITLE III)

Title III contains specific rules for AI systems that create a high risk to the health and safety or fundamental rights of natural persons. In line with a risk-based approach, those high-risk AI systems are permitted on the European market subject to compliance with certain mandatory requirements and an ex-ante conformity assessment. The classification of an AI system as high-risk is based on the intended purpose of the AI system, in line with existing product safety legislation. Therefore, the classification as high-risk does not only depend on the function performed by the AI system, but also on the specific purpose and modalities for which that system is used.

Chapter 1 of Title III sets the classification rules and identifies two main categories of high-risk AI systems:

• AI systems intended to be used as safety component of products that are subject to third party ex-ante conformity assessment;

• other stand-alone AI systems with mainly fundamental rights implications that are explicitly listed in Annex III.

This list of high-risk AI systems in Annex III contains a limited number of AI systems whose risks have already materialised or are likely to materialise in the near future. To ensure that the regulation can be adjusted to emerging uses and applications of AI, the Commission may expand the list of high-risk AI systems used within certain pre-defined areas, by applying a set of criteria and risk assessment methodology.

Chapter 2 sets out the legal requirements for high-risk AI systems in relation to data and data governance, documentation and recording keeping, transparency and provision of information to users, human oversight, robustness, accuracy and security. The proposed minimum requirements are already state-of-the-art for many diligent operators and the result of two years of preparatory work, derived from the Ethics Guidelines of the HLEG (29), piloted by more than 350 organisations (30). They are also largely consistent with other international recommendations and principles, which ensures that the proposed AI framework is compatible with those adopted by the EU’s international trade partners. The precise technical solutions to achieve compliance with those requirements may be provided by standards or by other technical specifications or otherwise be developed in accordance with general engineering or scientific knowledge at the discretion of the provider of the AI system. This flexibility is particularly important, because it allows providers of AI systems to choose the way to meet their requirements, taking into account the state-of-the-art and technological and scientific progress in this field.

Chapter 3 places a clear set of horizontal obligations on providers of high-risk AI systems. Proportionate obligations are also placed on users and other participants across the AI value chain (e.g., importers, distributors, authorized representatives).

Chapter 4 sets the framework for notified bodies to be involved as independent third parties in conformity assessment procedures, while Chapter 5 explains in detail the conformity assessment procedures to be followed for each type of high-risk AI system. The conformity assessment approach aims to minimise the burden for economic operators as well as for notified bodies, whose capacity needs to be progressively ramped up over time. AI systems intended to be used as safety components of products that are regulated under the New Legislative Framework legislation (e.g. machinery, toys, medical devices, etc.) will be subject to the same ex-ante and ex-post compliance and enforcement mechanisms of the products of which they are a component. The key difference is that the ex-ante and ex-post mechanisms will ensure compliance not only with the requirements established by sectorial legislation, but also with the requirements established by this regulation.

As regards stand-alone high-risk AI systems that are referred to in Annex III, a new compliance and enforcement system will be established. This follows the model of the New Legislative Framework legislation implemented through internal control checks by the providers with the exception of remote biometric identification systems that would be subject to third party conformity assessment. A comprehensive ex-ante conformity assessment through internal checks, combined with a strong ex-post enforcement, could be an effective and reasonable solution for those systems, given the early phase of the regulatory intervention and the fact the AI sector is very innovative and expertise for auditing is only now being accumulated. An assessment through internal checks for ‘stand-alone’ high-risk AI systems would require a full, effective and properly documented ex ante compliance with all requirements of the regulation and compliance with robust quality and risk management systems and post-market monitoring. After the provider has performed the relevant conformity assessment, it should register those stand-alone high-risk AI systems in an EU database that will be managed by the Commission to increase public transparency and oversight and strengthen ex post supervision by competent authorities. By contrast, for reasons of consistency with the existing product safety legislation, the conformity assessments of AI systems that are safety components of products will follow a system with third party conformity assessment procedures already established under the relevant sectoral product safety legislation. New ex ante re-assessments of the conformity will be needed in case of substantial modifications to the AI systems (and notably changes which go beyond what is pre-determined by the provider in its technical documentation and checked at the moment of the ex-ante conformity assessment).

5.2.4. TRANSPARENCY OBLIGATIONS FOR CERTAIN AI SYSTEMS (TITLE IV)

Title IV concerns certain AI systems to take account of the specific risks of manipulation they pose. Transparency obligations will apply for systems that (i) interact with humans, (ii) are used to detect emotions or determine association with (social) categories based on biometric data, or (iii) generate or manipulate content (‘deep fakes’). When persons interact with an AI system or their emotions or characteristics are recognised through automated means, people must be informed of that circumstance. If an AI system is used to generate or manipulate image, audio or video content that appreciably resembles authentic content, there should be an obligation to disclose that the content is generated through automated means, subject to exceptions for legitimate purposes (law enforcement, freedom of expression). This allows persons to make informed choices or step back from a given situation.

5.2.5. MEASURES IN SUPPORT OF INNOVATION (TITLE V)

Title V contributes to the objective to create a legal framework that is innovation-friendly, future-proof and resilient to disruption. To that end, it encourages national competent authorities to set up regulatory sandboxes and sets a basic framework in terms of governance, supervision and liability. AI regulatory sandboxes establish a controlled environment to test innovative technologies for a limited time on the basis of a testing plan agreed with the competent authorities. Title V also contains measures to reduce the regulatory burden on SMEs and start-ups.

5.2.6. GOVERNANCE AND IMPLEMENTATION (TITLES VI, VII AND VII)

Title VI sets up the governance systems at Union and national level. At Union level, the proposal establishes a European Artificial Intelligence Board (the ‘Board’), composed of representatives from the Member States and the Commission. The Board will facilitate a smooth, effective and harmonised implementation of this regulation by contributing to the effective cooperation of the national supervisory authorities and the Commission and providing advice and expertise to the Commission. It will also collect and share best practices among the Member States.

At national level, Member States will have to designate one or more national competent authorities and, among them, the national supervisory authority, for the purpose of supervising the application and implementation of the regulation. The European Data Protection Supervisor will act as the competent authority for the supervision of the Union institutions, agencies and bodies when they fall within the scope of this regulation.

Title VII aims to facilitate the monitoring work of the Commission and national authorities through the establishment of an EU-wide database for stand-alone high-risk AI systems with mainly fundamental rights implications. The database will be operated by the Commission and provided with data by the providers of the AI systems, who will be required to register their systems before placing them on the market or otherwise putting them into service.

Title VIII sets out the monitoring and reporting obligations for providers of AI systems with regard to post-market monitoring and reporting and investigating on AI-related incidents and malfunctioning. Market surveillance authorities would also control the market and investigate compliance with the obligations and requirements for all high-risk AI systems already placed on the market. Market surveillance authorities would have all powers under Regulation (EU) 2019/1020 on market surveillance. Ex-post enforcement should ensure that once the AI system has been put on the market, public authorities have the powers and resources to intervene in case AI systems generate unexpected risks, which warrant rapid action. They will also monitor compliance of operators with their relevant obligations under the regulation. The proposal does not foresee the automatic creation of any additional bodies or authorities at Member State level. Member States may therefore appoint (and draw upon the expertise of) existing sectorial authorities, who would be entrusted also with the powers to monitor and enforce the provisions of the regulation.

All this is without prejudice to the existing system and allocation of powers of ex-post enforcement of obligations regarding fundamental rights in the Member States. When necessary for their mandate, existing supervision and enforcement authorities will also have the power to request and access any documentation maintained following this regulation and, where needed, request market surveillance authorities to organise testing of the high-risk AI system through technical means.

5.2.7. CODES OF CONDUCT (TITLE IX)

Title IX creates a framework for the creation of codes of conduct, which aim to encourage providers of non-high-risk AI systems to apply voluntarily the mandatory requirements for high-risk AI systems (as laid out in Title III). Providers of non-high-risk AI systems may create and implement the codes of conduct themselves. Those codes may also include voluntary commitments related, for example, to environmental sustainability, accessibility for persons with disability, stakeholders’ participation in the design and development of AI systems, and diversity of development teams.

5.2.8. FINAL PROVISIONS (TITLES X, XI AND XII)

Title X emphasizes the obligation of all parties to respect the confidentiality of information and data and sets out rules for the exchange of information obtained during the implementation of the regulation. Title X also includes measures to ensure the effective implementation of the regulation through effective, proportionate, and dissuasive penalties for infringements of the provisions.

Title XI sets out rules for the exercise of delegation and implementing powers. The proposal empowers the Commission to adopt, where appropriate, implementing acts to ensure uniform application of the regulation or delegated acts to update or complement the lists in Annexes I to VII.

Title XII contains an obligation for the Commission to assess regularly the need for an update of Annex III and to prepare regular reports on the evaluation and review of the regulation. It also lays down final provisions, including a differentiated transitional period for the initial date of the applicability of the regulation to facilitate the smooth implementation for all parties concerned.

2021/0106 (COD)

Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS

THE EUROPEAN PARLIAMENT AND THE COUNCIL OF THE EUROPEAN UNION,

Having regard to the Treaty on the Functioning of the European Union, and in particular Articles 16 and 114 thereof,

Having regard to the proposal from the European Commission,

After transmission of the draft legislative act to the national parliaments,

Having regard to the opinion of the European Economic and Social Committee (31),

Having regard to the opinion of the Committee of the Regions (32),

Acting in accordance with the ordinary legislative procedure,

Whereas:

(1) The purpose of this Regulation is to improve the functioning of the internal market by laying down a uniform legal framework in particular for the development, marketing and use of artificial intelligence in conformity with Union values. This Regulation pursues a number of overriding reasons of public interest, such as a high level of protection of health, safety and fundamental rights, and it ensures the free movement of AI-based goods and services cross-border, thus preventing Member States from imposing restrictions on the development, marketing and use of AI systems, unless explicitly authorised by this Regulation.

(2) Artificial intelligence systems (AI systems) can be easily deployed in multiple sectors of the economy and society, including cross border, and circulate throughout the Union. Certain Member States have already explored the adoption of national rules to ensure that artificial intelligence is safe and is developed and used in compliance with fundamental rights obligations. Differing national rules may lead to fragmentation of the internal market and decrease legal certainty for operators that develop or use AI systems. A consistent and high level of protection throughout the Union should therefore be ensured, while divergences hampering the free circulation of AI systems and related products and services within the internal market should be prevented, by laying down uniform obligations for operators and guaranteeing the uniform protection of overriding reasons of public interest and of rights of persons throughout the internal market based on Article 114 of the Treaty on the Functioning of the European Union (TFEU). To the extent that this Regulation contains specific rules on the protection of individuals with regard to the processing of personal data concerning restrictions of the use of AI systems for ‘real-time’ remote biometric identification in publicly accessible spaces for the purpose of law enforcement, it is appropriate to base this Regulation, in as far as those specific rules are concerned, on Article 16 of the TFEU. In light of those specific rules and the recourse to Article 16 TFEU, it is appropriate to consult the European Data Protection Board.

(3) Artificial intelligence is a fast evolving family of technologies that can contribute to a wide array of economic and societal benefits across the entire spectrum of industries and social activities. By improving prediction, optimising operations and resource allocation, and personalising digital solutions available for individuals and organisations, the use of artificial intelligence can provide key competitive advantages to companies and support socially and environmentally beneficial outcomes, for example in healthcare, farming, education and training, infrastructure management, energy, transport and logistics, public services, security, justice, resource and energy efficiency, and climate change mitigation and adaptation.

(4) At the same time, depending on the circumstances regarding its specific application and use, artificial intelligence may generate risks and cause harm to public interests and rights that are protected by Union law. Such harm might be material or immaterial.

(5) A Union legal framework laying down harmonised rules on artificial intelligence is therefore needed to foster the development, use and uptake of artificial intelligence in the internal market that at the same time meets a high level of protection of public interests, such as health and safety and the protection of fundamental rights, as recognised and protected by Union law. To achieve that objective, rules regulating the placing on the market and putting into service of certain AI systems should be laid down, thus ensuring the smooth fun (ctioning of the internal market and allowing those systems to benefit from the principle of free movement of goods and services. By laying down those rules, this Regulation supports the objective of the Union of being a global leader in the development of secure, trustworthy and ethical artificial intelligence, as stated by the European Council (33), and it ensures the protection of ethical principles, as specifically requested by the European Parliament (34).

(6) The notion of AI system should be clearly defined to ensure legal certainty, while providing the flexibility to accommodate future technological developments. The definition should be based on the key functional characteristics of the software, in particular the ability, for a given set of human-defined objectives, to generate outputs such as content, predictions, recommendations, or decisions which influence the environment with which the system interacts, be it in a physical or digital dimension. AI systems can be designed to operate with varying levels of autonomy and be used on a stand-alone basis or as a component of a product, irrespective of whether the system is physically integrated into the product (embedded) or serve the functionality of the product without being integrated therein (non-embedded). The definition of AI system should be complemented by a list of specific techniques and approaches used for its development, which should be kept up-to–date in the light of market and technological developments through the adoption of delegated acts by the Commission to amend that list.

(7) The notion of biometric data used in this Regulation is in line with and should be interpreted consistently with the notion of biometric data as defined in Article 4(14) of Regulation (EU) 2016/679 of the European Parliament and of the Council (35), Article 3(18) of Regulation (EU) 2018/1725 of the European Parliament and of the Council (36) and Article 3(13) of Directive (EU) 2016/680 of the European Parliament and of the Council (37).

(8) The notion of remote biometric identification system as used in this Regulation should be defined functionally, as an AI system intended for the identification of natural persons at a distance through the comparison of a person’s biometric data with the biometric data  (contained in a reference database, and without prior knowledge whether the targeted person will be present and can be identified, irrespectively of the particular technology, processes or types of biometric data used. Considering their different characteristics and manners in which they are used, as well as the different risks involved, a distinction should be made between ‘real-time’ and ‘post’ remote biometric identification systems. In the case of ‘real-time’ systems, the capturing of the biometric data, the comparison and the identification occur all instantaneously, near-instantaneously or in any event without a significant delay. In this regard, there should be no scope for circumventing the rules of this Regulation on the ‘real-time’ use of the AI systems in question by providing for minor delays. ‘Real-time’ systems involve the use of ‘live’ or ‘near-‘live’ material, such as video footage, generated by a camera or other device with similar functionality. In the case of ‘post’ systems, in contrast, the biometric data have already been captured and the comparison and identification occur only after a significant delay. This involves material, such as pictures or video footage generated by closed circuit television cameras or private devices, which has been generated before the use of the system in respect of the natural persons concerned.

(9) For the purposes of this Regulation the notion of publicly accessible space should be understood as referring to any physical place that is accessible to the public, irrespective of whether the place in question is privately or publicly owned. Therefore, the notion does not cover places that are private in nature and normally not freely accessible for third parties, including law enforcement authorities, unless those parties have been specifically invited or authorised, such as homes, private clubs, offices, warehouses and factories. Online spaces are not covered either, as they are not physical spaces. However, the mere fact that certain conditions for accessing a particular space may apply, such as admission tickets or age restrictions, does not mean that the space is not publicly accessible within the meaning of this Regulation. Consequently, in addition to public spaces such as streets, relevant parts of government buildings and most transport infrastructure, spaces such as cinemas, theatres, shops and shopping centres are normally also publicly accessible. Whether a given space is accessible to the public should however be determined on a case-by-case basis, having regard to the specificities of the individual situation at hand.

(10) In order to ensure a level playing field and an effective protection of rights and freedoms of individuals across the Union, the rules established by this Regulation should apply to providers of AI systems in a non-discriminatory manner, irrespective of whether they are established within the Union or in a third country, and to users of AI systems established within the Union.

(11) In light of their digital nature, certain AI systems should fall within the scope of this Regulation even when they are neither placed on the market, nor put into service, nor used in the Union. This is the case for example of an operator established in the Union that contracts certain services to an operator established outside the Union in relation to an activity to be performed by an AI system that would qualify as high-risk and whose effects impact natural persons located in the Union. In those circumstances, the AI system used by the operator outside the Union could process data lawfully collected in and transferred from the Union, and provide to the contracting operator in the Union the output of that AI system resulting from that processing, without that AI system being placed on the market, put into service or used in the Union. To prevent the circumvention of this Regulation and to ensure an effective protection of natural persons located in the Union, this Regulation should also apply to providers and users of AI systems that are established in a third country, to the extent the output produced by those systems is used in the Union. Nonetheless, to take into account existing arrangements and special needs for cooperation with foreign partners with whom information and evidence is exchanged, this Regulation should not apply to public authorities of a third country and international organisations when acting in the framework of international agreements concluded at national or European level for law enforcement and judicial cooperation with the Union or with its Member States. Such agreements have been concluded bilaterally between Member States and third countries or between the European Union, Europol and other EU agencies and third countries and international organisations.

(12) This Regulation should also apply to Union institutions, offices, bodies and agencies when acting as a provider or user of an AI system. AI systems exclusively developed or used for military purposes should be excluded from the scope of this Regulation where that use falls under the exclusive remit of the Common Foreign and Security Policy regulated under Title V of the Treaty on the European Union (TEU). This Regulation should be without prejudice to the provisions regarding the liability of intermediary service providers set out in Directive 2000/31/EC of the European Parliament and of the Council [as amended by the Digital Services Act].

(13) In order to ensure a consistent and high level of protection of public interests as regards health, safety and fundamental rights, common normative standards for all high-risk AI systems should be established. Those standards should be consistent with the Charter of fundamental rights of the European Union (the Charter) and should be non-discriminatory and in line with the Union’s international trade commitments.

(14) In order to introduce a proportionate and effective set of binding rules for AI systems, a clearly defined risk-based approach should be followed. That approach should tailor the type and content of such rules to the intensity and scope of the risks that AI systems can generate. It is therefore necessary to prohibit certain artificial intelligence practices, to lay down requirements for high-risk AI systems and obligations for the relevant operators, and to lay down transparency obligations for certain AI systems.

(15) Aside from the many beneficial uses of artificial intelligence, that technology can also be misused and provide novel and powerful tools for manipulative, exploitative and social control practices. Such practices are particularly harmful and should be prohibited because they contradict Union values of respect for human dignity, freedom, equality, democracy and the rule of law and Union fundamental rights, including the right to non-discrimination, data protection and privacy and the rights of the child.

(16) The placing on the market, putting into service or use of certain AI systems intended to distort human behaviour, whereby physical or psychological harms are likely to occur, should be forbidden. Such AI systems deploy subliminal components individuals cannot perceive or exploit vulnerabilities of children and people due to their age, physical or mental incapacities. They do so with the intention to materially distort the behaviour of a person and in a manner that causes or is likely to cause harm to that or another person. The intention may not be presumed if the distortion of human behaviour results from factors external to the AI system which are outside of the control of the provider or the user. Research for legitimate purposes in relation to such AI systems should not be stifled by the prohibition, if such research does not amount to use of the AI system in human-machine relations that exposes natural persons to harm and such research is carried out in accordance with recognised ethical standards for scientific research.

(17) AI systems providing social scoring of natural persons for general purpose by public authorities or on their behalf may lead to discriminatory outcomes and the exclusion of certain groups. They may violate the right to dignity and non-discrimination and the values of equality and justice. Such AI systems evaluate or classify the trustworthiness of natural persons based on their social behaviour in multiple contexts or known or predicted personal or personality characteristics. The social score obtained from such AI systems may lead to the detrimental or unfavourable treatment of natural persons or whole groups thereof in social contexts, which are unrelated to the context in which the data was originally generated or collected or to a detrimental treatment that is disproportionate or unjustified to the gravity of their social behaviour. Such AI systems should be therefore prohibited.

(18) The use of AI systems for ‘real-time’ remote biometric identification of natural persons in publicly accessible spaces for the purpose of law enforcement is considered particularly intrusive in the rights and freedoms of the concerned persons, to the extent that it may affect the private life of a large part of the population, evoke a feeling of constant surveillance and indirectly dissuade the exercise of the freedom of assembly and other fundamental rights. In addition, the immediacy of the impact and the limited opportunities for further checks or corrections in relation to the use of such systems operating in ‘real-time’ carry heightened risks for the rights and freedoms of the persons that are concerned by law enforcement activities.

(19) The use of those systems for the purpose of law enforcement should therefore be prohibited, except in three exhaustively listed and narrowly defined situations, where the use is strictly necessary to achieve a substantial public interest, the importance of which outweighs the risks. Those situations involve the search for potential victims of crime, including missing children; certain threats to the life or physical safety of natural persons or of a terrorist attack; and the detection, localisation, identification or prosecution of perpetrators or suspects of the criminal offences referred to in Council Framework Decision 2002/584/JHA (38) if those criminal offences are punishable in the Member State concerned by a custodial sentence or a detention order for a maximum period of at least three years and as they are defined in the law of that Member State. Such threshold for the custodial sentence or detention order in accordance with national law contributes to ensure that the offence should be serious enough to potentially justify the use of ‘real-time’ remote biometric identification systems. Moreover, of the 32 criminal offences listed in the Council Framework Decision 2002/584/JHA, some are in practice likely to be more relevant than others, in that the recourse to ‘real-time’ remote biometric identification will foreseeably be necessary and proportionate to highly varying degrees for the practical pursuit of the detection, localisation, identification or prosecution of a perpetrator or suspect of the different criminal offences listed and having regard to the likely differences in the seriousness, probability and scale of the harm or possible negative consequences.

(20) In order to ensure that those systems are used in a responsible and proportionate manner, it is also important to establish that, in each of those three exhaustively listed and narrowly defined situations, certain elements should be taken into account, in particular as regards the nature of the situation giving rise to the request and the consequences of the use for the rights and freedoms of all persons concerned and the safeguards and conditions provided for with the use. In addition, the use of ‘real-time’ remote biometric identification systems in publicly accessible spaces for the purpose of law enforcement should be subject to appropriate limits in time and space, having regard in particular to the evidence or indications regarding the threats, the victims or perpetrator. The reference database of persons should be appropriate for each use case in each of the three situations mentioned above.

(21) Each use of a ‘real-time’ remote biometric identification system in publicly accessible spaces for the purpose of law enforcement should be subject to an express and specific authorisation by a judicial authority or by an independent administrative authority of a Member State. Such authorisation should in principle be obtained prior to the use, except in duly justified situations of urgency, that is, situations where the need to use the systems in question is such as to make it effectively and objectively impossible to obtain an authorisation before commencing the use. In such situations of urgency, the use should be restricted to the absolute minimum necessary and be subject to appropriate safeguards and conditions, as determined in national law and specified in the context of each individual urgent use case by the law enforcement authority itself. In addition, the law enforcement authority should in such situations seek to obtain an authorisation as soon as possible, whilst providing the reasons for not having been able to request it earlier.

(22) Furthermore, it is appropriate to provide, within the exhaustive framework set by this Regulation that such use in the territory of a Member State in accordance with this Regulation should only be possible where and in as far as the Member State in question has decided to expressly provide for the possibility to authorise such use in its detailed rules of national law. Consequently, Member States remain free under this Regulation not to provide for such a possibility at all or to only provide for such a possibility in respect of some of the objectives capable of justifying authorised use identified in this Regulation.

(23) The use of AI systems for ‘real-time’ remote biometric identification of natural persons in publicly accessible spaces for the purpose of law enforcement necessarily involves the processing of biometric data. The rules of this Regulation that prohibit, subject to certain exceptions, such use, which are based on Article 16 TFEU, should apply as lex specialis in respect of the rules on the processing of biometric data contained in Article 10 of Directive (EU) 2016/680, thus regulating such use and the processing of biometric data involved in an exhaustive manner. Therefore, such use and processing should only be possible in as far as it is compatible with the framework set by this Regulation, without there being scope, outside that framework, for the competent authorities, where they act for purpose of law enforcement, to use such systems and process such data in connection thereto on the grounds listed in Article 10 of Directive (EU) 2016/680. In this context, this Regulation is not intended to provide the legal basis for the processing of personal data under Article 8 of Directive 2016/680. However, the use of ‘real-time’ remote biometric identification systems in publicly accessible spaces for purposes other than law enforcement, including by competent authorities, should not be covered by the specific framework regarding such use for the purpose of law enforcement set by this Regulation. Such use for purposes other than law enforcement should therefore not be subject to the requirement of an authorisation under this Regulation and the applicable detailed rules of national law that may give effect to it.

(24) Any processing of biometric data and other personal data involved in the use of AI systems for biometric identification, other than in connection to the use of ‘real-time’ remote biometric identification systems in publicly accessible spaces for the purpose of law enforcement as regulated by this Regulation, including where those systems are used by competent authorities in publicly accessible spaces for other purposes than law enforcement, should continue to comply with all requirements resulting from Article 9(1) of Regulation (EU) 2016/679, Article 10(1) of Regulation (EU) 2018/1725 and Article 10 of Directive (EU) 2016/680, as applicable.

(25) In accordance with Article 6a of Protocol nº 21 on the position of the United Kingdom and Ireland in respect of the area of freedom, security and justice, as annexed to the TEU and to the TFEU, Ireland is not bound by the rules laid down in Article 5(1), point (d), (2) and (3) of this Regulation adopted on the basis of Article 16 of the TFEU which relate to the processing of personal data by the Member States when carrying out activities falling within the scope of Chapter 4 or Chapter 5 of Title V of Part Three of the TFEU, where Ireland is not bound by the rules governing the forms of judicial cooperation in criminal matters or police cooperation which require compliance with the provisions laid down on the basis of Article 16 of the TFEU.

(26) In accordance with Articles 2 and 2a of Protocol nº 22 on the position of Denmark, annexed to the TEU and TFEU, Denmark is not bound by rules laid down in Article 5(1), point (d), (2) and (3) of this Regulation adopted on the basis of Article 16 of the TFEU, or subject to their application, which relate to the processing of personal data by the Member States when carrying out activities falling within the scope of Chapter 4 or Chapter 5 of Title V of Part Three of the TFEU.

(27) High-risk AI systems should only be placed on the Union market or put into service if they comply with certain mandatory requirements. Those requirements should ensure that high-risk AI systems available in the Union or whose output is otherwise used in the Union do not pose unacceptable risks to important Union public interests as recognised and protected by Union law. AI systems identified as high-risk should be limited to those that have a significant harmful impact on the health, safety and fundamental rights of persons in the Union and such limitation minimises any potential restriction to international trade, if any.

(28) AI systems could produce adverse outcomes to health and safety of persons, in particular when such systems operate as components of products. Consistently with the objectives of Union harmonisation legislation to facilitate the free movement of products in the internal market and to ensure that only safe and otherwise compliant products find their way into the market, it is important that the safety risks that may be generated by a product as a whole due to its digital components, including AI systems, are duly prevented and mitigated. For instance, increasingly autonomous robots, whether in the context of manufacturing or personal assistance and care should be able to safely operate and performs their functions in complex environments. Similarly, in the health sector where the stakes for life and health are particularly high, increasingly sophisticated diagnostics systems and systems supporting human decisions should be reliable and accurate. The extent of the adverse impact caused by the AI system on the fundamental rights protected by the Charter is of particular relevance when classifying an AI system as high-risk. Those rights include the right to human dignity, respect for private and family life, protection of personal data, freedom of expression and information, freedom of assembly and of association, and non-discrimination, consumer protection, workers’ rights, rights of persons with disabilities, right to an effective remedy and to a fair trial, right of defence and the presumption of innocence, right to good administration. In addition to those rights, it is important to highlight that children have specific rights as enshrined in Article 24 of the EU Charter and in the United Nations Convention on the Rights of the Child (further elaborated in the UNCRC General Comment No. 25 as regards the digital environment), both of which require consideration of the children’s vulnerabilities and provision of such protection and care as necessary for their well-being. The fundamental right to a high level of environmental protection enshrined in the Charter and implemented in Union policies should also be considered when assessing the severity of the harm that an AI system can cause, including in relation to the health and safety of persons.

(29) As regards high-risk AI systems that are safety components of products or systems, or which are themselves products or systems falling within the scope of Regulation (EC) nº 300/2008 of the European Parliament and of the Council (39), Regulation (EU) nº 167/2013 of the European Parliament and of the Council (40), Regulation (EU) nº 168/2013 of the European Parliament and of the Council (41), Directive 2014/90/EU of the European Parliament and of the Council (42), Directive (EU) 2016/797 of the European Parliament and of the Council (43), Regulation (EU) 2018/858 of the European Parliament and of the Council (44), Regulation (EU) 2018/1139 of the European Parliament and of the Council (45), and Regulation (EU) 2019/2144 of the European Parliament and of the Council (46), it is appropriate to amend those acts to ensure that the Commission takes into account, on the basis of the technical and regulatory specificities of each sector, and without interfering with existing governance, conformity assessment and enforcement mechanisms and authorities established therein, the mandatory requirements for high-risk AI systems laid down in this Regulation when adopting any relevant future delegated or implementing acts on the basis of those acts.

(30) As regards AI systems that are safety components of products, or which are themselves products, falling within the scope of certain Union harmonisation legislation, it is appropriate to classify them as high-risk under this Regulation if the product in question undergoes the conformity assessment procedure with a third-party conformity assessment body pursuant to that relevant Union harmonisation legislation. In particular, such products are machinery, toys, lifts, equipment and protective systems intended for use in potentially explosive atmospheres, radio equipment, pressure equipment, recreational craft equipment, cableway installations, appliances burning gaseous fuels, medical devices, and in vitro diagnostic medical devices.

(31) The classification of an AI system as high-risk pursuant to this Regulation should not necessarily mean that the product whose safety component is the AI system, or the AI system itself as a product, is considered ‘high-risk’ under the criteria established in the relevant Union harmonisation legislation that applies to the product. This is notably the case for Regulation (EU) 2017/745 of the European Parliament and of the Council (47) and Regulation (EU) 2017/746 of the European Parliament and of the Council (48), where a third-party conformity assessment is provided for medium-risk and high-risk products.

(32) As regards stand-alone AI systems, meaning high-risk AI systems other than those that are safety components of products, or which are themselves products, it is appropriate to classify them as high-risk if, in the light of their intended purpose, they pose a high risk of harm to the health and safety or the fundamental rights of persons, taking into account both the severity of the possible harm and its probability of occurrence and they are used in a number of specifically pre-defined areas specified in the Regulation. The identification of those systems is based on the same methodology and criteria envisaged also for any future amendments of the list of high-risk AI systems.

(33) Technical inaccuracies of AI systems intended for the remote biometric identification of natural persons can lead to biased results and entail discriminatory effects. This is particularly relevant when it comes to age, ethnicity, sex or disabilities. Therefore, ‘real-time’ and ‘post’ remote biometric identification systems should be classified as high-risk. In view of the risks that they pose, both types of remote biometric identification systems should be subject to specific requirements on logging capabilities and human oversight.

(34) As regards the management and operation of critical infrastructure, it is appropriate to classify as high-risk the AI systems intended to be used as safety components in the management and operation of road traffic and the supply of water, gas, heating and electricity, since their failure or malfunctioning may put at risk the life and health of persons at large scale and lead to appreciable disruptions in the ordinary conduct of social and economic activities.

(35) AI systems used in education or vocational training, notably for determining access or assigning persons to educational and vocational training institutions or to evaluate persons on tests as part of or as a precondition for their education should be considered high-risk, since they may determine the educational and professional course of a person’s life and therefore affect their ability to secure their livelihood. When improperly designed and used, such systems may violate the right to education and training as well as the right not to be discriminated against and perpetuate historical patterns of discrimination.

(36) AI systems used in employment, workers management and access to self-employment, notably for the recruitment and selection of persons, for making decisions on promotion and termination and for task allocation, monitoring or evaluation of persons in work-related contractual relationships, should also be classified as high-risk, since those systems may appreciably impact future career prospects and livelihoods of these persons. Relevant work-related contractual relationships should involve employees and persons providing services through platforms as referred to in the Commission Work Programme 2021. Such persons should in principle not be considered users within the meaning of this Regulation. Throughout the recruitment process and in the evaluation, promotion, or retention of persons in work-related contractual relationships, such systems may perpetuate historical patterns of discrimination, for example against women, certain age groups, persons with disabilities, or persons of certain racial or ethnic origins or sexual orientation. AI systems used to monitor the performance and behaviour of these persons may also impact their rights to data protection and privacy.

(37) Another area in which the use of AI systems deserves special consideration is the access to and enjoyment of certain essential private and public services and benefits necessary for people to fully participate in society or to improve one’s standard of living. In particular, AI systems used to evaluate the credit score or creditworthiness of natural persons should be classified as high-risk AI systems, since they determine those persons’ access to financial resources or essential services such as housing, electricity, and telecommunication services. AI systems used for this purpose may lead to discrimination of persons or groups and perpetuate historical patterns of discrimination, for example based on racial or ethnic origins, disabilities, age, sexual orientation, or create new forms of discriminatory impacts. Considering the very limited scale of the impact and the available alternatives on the market, it is appropriate to exempt AI systems for the purpose of creditworthiness assessment and credit scoring when put into service by small-scale providers for their own use. Natural persons applying for or receiving public assistance benefits and services from public authorities are typically dependent on those benefits and services and in a vulnerable position in relation to the responsible authorities. If AI systems are used for determining whether such benefits and services should be denied, reduced, revoked or reclaimed by authorities, they may have a significant impact on persons’ livelihood and may infringe their fundamental rights, such as the right to social protection, non-discrimination, human dignity or an effective remedy. Those systems should therefore be classified as high-risk. Nonetheless, this Regulation should not hamper the development and use of innovative approaches in the public administration, which would stand to benefit from a wider use of compliant and safe AI systems, provided that those systems do not entail a high risk to legal and natural persons. Finally, AI systems used to dispatch or establish priority in the dispatching of emergency first response services should also be classified as high-risk since they make decisions in very critical situations for the life and health of persons and their property.

(38) Actions by law enforcement authorities involving certain uses of AI systems are characterised by a significant degree of power imbalance and may lead to surveillance, arrest or deprivation of a natural person’s liberty as well as other adverse impacts on fundamental rights guaranteed in the Charter. In particular, if the AI system is not trained with high quality data, does not meet adequate requirements in terms of its accuracy or robustness, or is not properly designed and tested before being put on the market or otherwise put into service, it may single out people in a discriminatory or otherwise incorrect or unjust manner. Furthermore, the exercise of important procedural fundamental rights, such as the right to an effective remedy and to a fair trial as well as the right of defence and the presumption of innocence, could be hampered, in particular, where such AI systems are not sufficiently transparent, explainable and documented. It is therefore appropriate to classify as high-risk a number of AI systems intended to be used in the law enforcement context where accuracy, reliability and transparency is particularly important to avoid adverse impacts, retain public trust and ensure accountability and effective redress. In view of the nature of the activities in question and the risks relating thereto, those high-risk AI systems should include in particular AI systems intended to be used by law enforcement authorities for individual risk assessments, polygraphs and similar tools or to detect the emotional state of natural person, to detect ‘deep fakes’, for the evaluation of the reliability of evidence in criminal proceedings, for predicting the occurrence or reoccurrence of an actual or potential criminal offence based on profiling of natural persons, or assessing personality traits and characteristics or past criminal behaviour of natural persons or groups, for profiling in the course of detection, investigation or prosecution of criminal offences, as well as for crime analytics regarding natural persons. AI systems specifically intended to be used for administrative proceedings by tax and customs authorities should not be considered high-risk AI systems used by law enforcement authorities for the purposes of prevention, detection, investigation and prosecution of criminal offences.

(39) AI systems used in migration, asylum and border control management affect people who are often in particularly vulnerable position and who are dependent on the outcome of the actions of the competent public authorities. The accuracy, non-discriminatory nature and transparency of the AI systems used in those contexts are therefore particularly important to guarantee the respect of the fundamental rights of the affected persons, notably their rights to free movement, non-discrimination, protection of private life and personal data, international protection and good administration. It is therefore appropriate to classify as high-risk AI systems intended to be used by the competent public authorities charged with tasks in the fields of migration, asylum and border control management as polygraphs and similar tools or to detect the emotional state of a natural person; for assessing certain risks posed by natural persons entering the territory of a Member State or applying for visa or asylum; for verifying the authenticity of the relevant documents of natural persons; for assisting competent public authorities for the examination of applications for asylum, visa and residence permits and associated complaints with regard to the objective to establish the eligibility of the natural persons applying for a status. AI systems in the area of migration, asylum and border control management covered by this Regulation should comply with the relevant procedural requirements set by the Directive 2013/32/EU of the European Parliament and of the Council (49), the Regulation (EC) nº 810/2009 of the European Parliament and of the Council (50) and other relevant legislation.

(40) Certain AI systems intended for the administration of justice and democratic processes should be classified as high-risk, considering their potentially significant impact on democracy, rule of law, individual freedoms as well as the right to an effective remedy and to a fair trial. In particular, to address the risks of potential biases, errors and opacity, it is appropriate to qualify as high-risk AI systems intended to assist judicial authorities in researching and interpreting facts and the law and in applying the law to a concrete set of facts. Such qualification should not extend, however, to AI systems intended for purely ancillary administrative activities that do not affect the actual administration of justice in individual cases, such as anonymisation or pseudonymisation of judicial decisions, documents or data, communication between personnel, administrative tasks or allocation of resources.

(41) The fact that an AI system is classified as high risk under this Regulation should not be interpreted as indicating that the use of the system is necessarily lawful under other acts of Union law or under national law compatible with Union law, such as on the protection of personal data, on the use of polygraphs and similar tools or other systems to detect the emotional state of natural persons. Any such use should continue to occur solely in accordance with the applicable requirements resulting from the Charter and from the applicable acts of secondary Union law and national law. This Regulation should not be understood as providing for the legal ground for processing of personal data, including special categories of personal data, where relevant.

(42) To mitigate the risks from high-risk AI systems placed or otherwise put into service on the Union market for users and affected persons, certain mandatory requirements should apply, taking into account the intended purpose of the use of the system and according to the risk management system to be established by the provider.

(43) Requirements should apply to high-risk AI systems as regards the quality of data sets used, technical documentation and record-keeping, transparency and the provision of information to users, human oversight, and robustness, accuracy and cybersecurity. Those requirements are necessary to effectively mitigate the risks for health, safety and fundamental rights, as applicable in the light of the intended purpose of the system, and no other less trade restrictive measures are reasonably available, thus avoiding unjustified restrictions to trade.

(44) High data quality is essential for the performance of many AI systems, especially when techniques involving the training of models are used, with a view to ensure that the high-risk AI system performs as intended and safely and it does not become the source of discrimination prohibited by Union law. High quality training, validation and testing data sets require the implementation of appropriate data governance and management practices. Training, validation and testing data sets should be sufficiently relevant, representative and free of errors and complete in view of the intended purpose of the system. They should also have the appropriate statistical properties, including as regards the persons or groups of persons on which the high-risk AI system is intended to be used. In particular, training, validation and testing data sets should take into account, to the extent required in the light of their intended purpose, the features, characteristics or elements that are particular to the specific geographical, behavioural or functional setting or context within which the AI system is intended to be used. In order to protect the right of others from the discrimination that might result from the bias in AI systems, the providers shouldbe able to process also special categories of personal data, as a matter of substantial public interest, in order to ensure the bias monitoring, detection and correction in relation to high-risk AI systems.

(45) For the development of high-risk AI systems, certain actors, such as providers, notified bodies and other relevant entities, such as digital innovation hubs, testing experimentation facilities and researchers, should be able to access and use high quality datasets within their respective fields of activities which are related to this Regulation. European common data spaces established by the Commission and the facilitation of data sharing between businesses and with government in the public interest will be instrumental to provide trustful, accountable and non-discriminatory access to high quality data for the training, validation and testing of AI systems. For example, in health, the European health data space will facilitate non-discriminatory access to health data and the training of artificial intelligence algorithms on those datasets, in a privacy-preserving, secure, timely, transparent and trustworthy manner, and with an appropriate institutional governance. Relevant competent authorities, including sectoral ones, providing or supporting the access to data may also support the provision of high-quality data for the training, validation and testing of AI systems.

(46) Having information on how high-risk AI systems have been developed and how they perform throughout their lifecycle is essential to verify compliance with the requirements under this Regulation. This requires keeping records and the availability of a technical documentation, containing information which is necessary to assess the compliance of the AI system with the relevant requirements. Such information should include the general characteristics, capabilities and limitations of the system, algorithms, data, training, testing and validation processes used as well as documentation on the relevant risk management system. The technical documentation should be kept up to date.

(47) To address the opacity that may make certain AI systems incomprehensible to or too complex for natural persons, a certain degree of transparency should be required for high-risk AI systems. Users should be able to interpret the system output and use it appropriately. High-risk AI systems should therefore be accompanied by relevant documentation and instructions of use and include concise and clear information, including in relation to possible risks to fundamental rights and discrimination, where appropriate.

(48) High-risk AI systems should be designed and developed in such a way that natural persons can oversee their functioning. For this purpose, appropriate human oversight measures should be identified by the provider of the system before its placing on the market or putting into service. In particular, where appropriate, such measures should guarantee that the system is subject to in-built operational constraints that cannot be overridden by the system itself and is responsive to the human operator, and that the natural persons to whom human oversight has been assigned have the necessary competence, training and authority to carry out that role.

(49) High-risk AI systems should perform consistently throughout their lifecycle and meet an appropriate level of accuracy, robustness and cybersecurity in accordance with the generally acknowledged state of the art. The level of accuracy and accuracy metrics should be communicated to the users.

(50) The technical robustness is a key requirement for high-risk AI systems. They should be resilient against risks connected to the limitations of the system (e.g. errors, faults, inconsistencies, unexpected situations) as well as against malicious actions that may compromise the security of the AI system and result in harmful or otherwise undesirable behaviour. Failure to protect against these risks could lead to safety impacts or negatively affect the fundamental rights, for example due to erroneous decisions or wrong or biased outputs generated by the AI system.

(51) Cybersecurity plays a crucial role in ensuring that AI systems are resilient against attempts to alter their use, behaviour, performance or compromise their security properties by malicious third parties exploiting the system’s vulnerabilities. Cyberattacks against AI systems can leverage AI specific assets, such as training data sets (e.g. data poisoning) or trained models (e.g. adversarial attacks), or exploit vulnerabilities in the AI system’s digital assets or the underlying ICT infrastructure. To ensure a level of cybersecurity appropriate to the risks, suitable measures should therefore be taken by the providers of high-risk AI systems, also taking into account as appropriate the underlying ICT infrastructure.

(52) As part of Union harmonisation legislation, rules applicable to the placing on the market, putting into service and use of high-risk AI systems should be laid down consistently with Regulation (EC) No 765/2008 of the European Parliament and of the Council51 setting out the requirements for accreditation and the market surveillance of products, Decision No 768/2008/EC of the European Parliament and of the Council (52) on a common framework for the marketing of products and Regulation (EU) 2019/1020 of the European Parliament and of the Council (53) on market surveillance and compliance of products (‘New Legislative Framework for the marketing of products’).

(53) It is appropriate that a specific natural or legal person, defined as the provider, takes the responsibility for the placing on the market or putting into service of a high-risk AI system, regardless of whether that natural or legal person is the person who designed or developed the system.

(54) The provider should establish a sound quality management system, ensure the accomplishment of the required conformity assessment procedure, draw up the relevant documentation and establish a robust post-market monitoring system. Public authorities which put into service high-risk AI systems for their own use may adopt and implement the rules for the quality management system as part of the quality management system adopted at a national or regional level, as appropriate, taking into account the specificities of the sector and the competences and organisation of the public authority in question.

(55) Where a high-risk AI system that is a safety component of a product which is covered by a relevant New Legislative Framework sectorial legislation is not placed on the market or put into service independently from the product, the manufacturer of the final product as defined under the relevant New Legislative Framework legislation should comply with the obligations of the provider established in this Regulation and notably ensure that the AI system embedded in the final product complies with the requirements of this Regulation.

(56) To enable enforcement of this Regulation and create a level-playing field for operators, and taking into account the different forms of making available of digital products, it is important to ensure that, under all circumstances, a person established in the Union can provide authorities with all the necessary information on the compliance of an AI system. Therefore, prior to making their AI systems available in the Union, where an importer cannot be identified, providers established outside the Union shall, by written mandate, appoint an authorised representative established in the Union.

(57) In line with New Legislative Framework principles, specific obligations for relevant economic operators, such as importers and distributors, should be set to ensure legal certainty and facilitate regulatory compliance by those relevant operators.

(58) Given the nature of AI systems and the risks to safety and fundamental rights possibly associated with their use, including as regard the need to ensure proper monitoring of the performance of an AI system in a real-life setting, it is appropriate to set specific responsibilities for users. Users should in particular use high-risk AI systems in accordance with the instructions of use and certain other obligations should be provided for with regard to monitoring of the functioning of the AI systems and with regard to record-keeping, as appropriate.

(59) It is appropriate to envisage that the user of the AI system should be the natural or legal person, public authority, agency or other body under whose authority the AI system is operated except where the use is made in the course of a personal non-professional activity.

(60) In the light of the complexity of the artificial intelligence value chain, relevant third parties, notably the ones involved in the sale and the supply of software, software tools and components, pre-trained models and data, or providers of network services, should cooperate, as appropriate, with providers and users to enable their compliance with the obligations under this Regulation and with competent authorities established under this Regulation.

(61) Standardisation should play a key role to provide technical solutions to providers to ensure compliance with this Regulation. Compliance with harmonised standards as defined in Regulation (EU) No 1025/2012 of the European Parliament and of the Council (54) should be a means for providers to demonstrate conformity with the requirements of this Regulation. However, the Commission could adopt common technical specifications in areas where no harmonised standards exist or where they are insufficient.

(62) In order to ensure a high level of trustworthiness of high-risk AI systems, those systems should be subject to a conformity assessment prior to their placing on the market or putting into service.

(63) It is appropriate that, in order to minimise the burden on operators and avoid any possible duplication, for high-risk AI systems related to products which are covered by existing Union harmonisation legislation following the New Legislative Framework approach, the compliance of those AI systems with the requirements of this Regulation should be assessed as part of the conformity assessment already foreseen under that legislation. The applicability of the requirements of this Regulation should thus not affect the specific logic, methodology or general structure of conformity assessment under the relevant specific New Legislative Framework legislation. This approach is fully reflected in the interplay between this Regulation and the [Machinery Regulation]. While safety risks of AI systems ensuring safety functions in machinery are addressed by the requirements of this Regulation, certain specific requirements in the [Machinery Regulation] will ensure the safe integration of the AI system into the overall machinery, so as not to compromise the safety of the machinery as a whole.

The [Machinery Regulation] applies the same definition of AI system as this Regulation.

(64) Given the more extensive experience of professional pre-market certifiers in the field of product safety and the different nature of risks involved, it is appropriate to limit, at least in an initial phase of application of this Regulation, the scope of application of third-party conformity assessment for high-risk AI systems other than those related to products. Therefore, the conformity assessment of such systems should be carried out as a general rule by the provider under its own responsibility, with the only exception of AI systems intended to be used for the remote biometric identification of persons, for which the involvement of a notified body in the conformity assessment should be foreseen, to the extent they are not prohibited.

(65) In order to carry out third-party conformity assessment for AI systems intended to be used for the remote biometric identification of persons, notified bodies should be designated under this Regulation by the national competent authorities, provided they are compliant with a set of requirements, notably on independence, competence and absence of conflicts of interests.

(66) In line with the commonly established notion of substantial modification for products regulated by Union harmonisation legislation, it is appropriate that an AI system undergoes a new conformity assessment whenever a change occurs which may affect the compliance of the system with this Regulation or when the intended purpose of the system changes. In addition, as regards AI systems which continue to ‘learn’ after being placed on the market or put into service (i.e. they automatically adapt how functions are carried out), it is necessary to provide rules establishing that changes to the algorithm and its performance that have been pre-determined by the provider and assessed at the moment of the conformity assessment should not constitute a substantial modification.

(67) High-risk AI systems should bear the CE marking to indicate their conformity with this Regulation so that they can move freely within the internal market. Member States should not create unjustified obstacles to the placing on the market or putting into service of high-risk AI systems that comply with the requirements laid down in this Regulation and bear the CE marking.

(68) Under certain conditions, rapid availability of innovative technologies may be crucial for health and safety of persons and for society as a whole. It is thus appropriate that under exceptional reasons of public security or protection of life and health of natural persons and the protection of industrial and commercial property, Member States could authorise the placing on the market or putting into service of AI systems which have not undergone a conformity assessment.

(69) In order to facilitate the work of the Commission and the Member States in the artificial intelligence field as well as to increase the transparency towards the public, providers of high-risk AI systems other than those related to products falling within the scope of relevant existing Union harmonisation legislation, should be required to register their high-risk AI system in a EU database, to be established and managed by the Commission. The Commission should be the controller of that database, in accordance with Regulation (EU) 2018/1725 of the European Parliament and of the Council (55). In order to ensure the full functionality of the database, when deployed, the procedure for setting the database should include the elaboration of functional specifications by the Commission and an independent audit report.

(70) Certain AI systems intended to interact with natural persons or to generate content may pose specific risks of impersonation or deception irrespective of whether they qualify as high-risk or not. In certain circumstances, the use of these systems should therefore be subject to specific transparency obligations without prejudice to the requirements and obligations for high-risk AI systems. In particular, natural persons should be notified that they are interacting with an AI system, unless this is obvious from the circumstances and the context of use. Moreover, natural persons should be notified when they are exposed to an emotion recognition system or a biometric categorisation system. Such information and notifications should be provided in accessible formats for persons with disabilities. Further, users, who use an AI system to generate or manipulate image, audio or video content that appreciably resembles existing persons, places or events and would falsely appear to a person to be authentic, should disclose that the content has been artificially created or manipulated by labelling the artificial intelligence output accordingly and disclosing its artificial origin.

(71) Artificial intelligence is a rapidly developing family of technologies that requires novel forms of regulatory oversight and a safe space for experimentation, while ensuring responsible innovation and integration of appropriate safeguards and risk mitigation measures. To ensure a legal framework that is innovation-friendly, future-proof and resilient to disruption, national competent authorities from one or more Member States should be encouraged to establish artificial intelligence regulatory sandboxes to facilitate the development and testing of innovative AI systems under strict regulatory oversight before these systems are placed on the market or otherwise put into service.

(72) The objectives of the regulatory sandboxes should be to foster AI innovation by establishing a controlled experimentation and testing environment in the development and pre-marketing phase with a view to ensuring compliance of the innovative AI systems with this Regulation and other relevant Union and Member States legislation; to enhance legal certainty for innovators and the competent authorities’ oversight and understanding of the opportunities, emerging risks and the impacts of AI use, and to accelerate access to markets, including by removing barriers for small and medium enterprises (SMEs) and start-ups. To ensure uniform implementation across the Union and economies of scale, it is appropriate to establish common rules for the regulatory sandboxes’ implementation and a framework for cooperation between the relevant authorities involved in the supervision of the sandboxes. This Regulation should provide the legal basis for the use of personal data collected for other purposes for developing certain AI systems in the public interest within the AI regulatory sandbox, in line with Article 6(4) of Regulation (EU) 2016/679, and Article 6 of Regulation (EU) 2018/1725, and without prejudice to Article 4(2) of Directive (EU) 2016/680. Participants in the sandbox should ensure appropriate safeguards and cooperate with the competent authorities, including by following their guidance and acting expeditiously and in good faith to mitigate any high-risks to safety and fundamental rights that may arise during the development and experimentation in the sandbox. The conduct of the participants in the sandbox should be taken into account when competent authorities decide whether to impose an administrative fine under Article 83(2) of Regulation 2016/679 and Article 57 of Directive 2016/680.

(73) In order to promote and protect innovation, it is important that the interests of small-scale providers and users of AI systems are taken into particular account. To this objective, Member States should develop initiatives, which are targeted at those operators, including on awareness raising and information communication. Moreover, the specific interests and needs of small-scale providers shall be taken into account when Notified Bodies set conformity assessment fees. Translation costs related to mandatory documentation and communication with authorities may constitute a significant cost for providers and other operators, notably those of a smaller scale. Member States should possibly ensure that one of the languages determined and accepted by them for relevant providers’ documentation and for communication with operators is one which is broadly understood by the largest possible number of cross-border users.

(74) In order to minimise the risks to implementation resulting from lack of knowledge and expertise in the market as well as to facilitate compliance of providers and notified bodies with their obligations under this Regulation, the AI-on demand platform, the European Digital Innovation Hubs and the Testing and Experimentation Facilities established by the Commission and the Member States at national or EU level should possibly contribute to the implementation of this Regulation. Within their respective mission and fields of competence, they may provide in particular technical and scientific support to providers and notified bodies.

(75) It is appropriate that the Commission facilitates, to the extent possible, access to Testing and Experimentation Facilities to bodies, groups or laboratories established or accredited pursuant to any relevant Union harmonisation legislation and which fulfil tasks in the context of conformity assessment of products or devices covered by that Union harmonisation legislation. This is notably the case for expert panels, expert laboratories and reference laboratories in the field of medical devices pursuant to Regulation (EU) 2017/745 and Regulation (EU) 2017/746.

(76) In order to facilitate a smooth, effective and harmonised implementation of this Regulation a European Artificial Intelligence Board should be established. The Board should be responsible for a number of advisory tasks, including issuing opinions, recommendations, advice or guidance on matters related to the implementation of this Regulation, including on technical specifications or existing standards regarding the requirements established in this Regulation and providing advice to and assisting the Commission on specific questions related to artificial intelligence.

(77) Member States hold a key role in the application and enforcement of this Regulation. In this respect, each Member State should designate one or more national competent authorities for the purpose of supervising the application and implementation of this Regulation. In order to increase organisation efficiency on the side of Member States and to set an official point of contact vis-à-vis the public and other counterparts at Member State and Union levels, in each Member State one national authority should be designated as national supervisory authority.

(78) In order to ensure that providers of high-risk AI systems can take into account the experience on the use of high-risk AI systems for improving their systems and the design and development process or can take any possible corrective action in a timely manner, all providers should have a post-market monitoring system in place. This system is also key to ensure that the possible risks emerging from AI systems which continue to ‘learn’ after being placed on the market or put into service can be more efficiently and timely addressed. In this context, providers should also be required to have a system in place to report to the relevant authorities any serious incidents or any breaches to national and Union law protecting fundamental rights resulting from the use of their AI systems.

(79) In order to ensure an appropriate and effective enforcement of the requirements and obligations set out by this Regulation, which is Union harmonisation legislation, the system of market surveillance and compliance of products established by Regulation (EU) 2019/1020 should apply in its entirety. Where necessary for their mandate, national public authorities or bodies, which supervise the application of Union law protecting fundamental rights, including equality bodies, should also have access to any documentation created under this Regulation.

(80) Union legislation on financial services includes internal governance and risk management rules and requirements which are applicable to regulated financial institutions in the course of provision of those services, including when they make use of AI systems. In order to ensure coherent application and enforcement of the obligations under this Regulation and relevant rules and requirements of the Union financial services legislation, the authorities responsible for the supervision and enforcement of the financial services legislation, including where applicable the European Central Bank, should be designated as competent authorities for the purpose of supervising the implementation of this Regulation, including for market surveillance activities, as regards AI systems provided or used by regulated and supervised financial institutions. To further enhance the consistency between this Regulation and the rules applicable to credit institutions regulated under Directive 2013/36/EU of the European Parliament and of the Council (56), it is also appropriate to integrate the conformity assessment procedure and some of the providers’ procedural obligations in relation to risk management, post marketing monitoring and documentation into the existing obligations and procedures under Directive 2013/36/EU. In order to avoid overlaps, limited derogations should also be envisaged in relation to the quality management system of providers and the monitoring obligation placed on users of high-risk AI systems to the extent that these apply to credit institutions regulated by Directive 2013/36/EU.

(81) The development of AI systems other than high-risk AI systems in accordance with the requirements of this Regulation may lead to a larger uptake of trustworthy artificial intelligence in the Union. Providers of non-high-risk AI systems should be encouraged to create codes of conduct intended to foster the voluntary application of the mandatory requirements applicable to high-risk AI systems. Providers should also be encouraged to apply on a voluntary basis additional requirements related, for example, to environmental sustainability, accessibility to persons with disability, stakeholders’ participation in the design and development of AI systems, and diversity of the development teams. The Commission may develop initiatives, including of a sectorial nature, to facilitate the lowering of technical barriers hindering cross-border exchange of data for AI development, including on data access infrastructure, semantic and technical interoperability of different types of data.

(82) It is important that AI systems related to products that are not high-risk in accordance with this Regulation and thus are not required to comply with the requirements set out herein are nevertheless safe when placed on the market or put into service. To contribute to this objective, the Directive 2001/95/EC of the European Parliament and of the Council (57) would apply as a safety net.

(83) In order to ensure trustful and constructive cooperation of competent authorities on Union and national level, all parties involved in the application of this Regulation should respect the confidentiality of information and data obtained in carrying out their tasks.

(84) Member States should take all necessary measures to ensure that the provisions of this Regulation are implemented, including by laying down effective, proportionate and dissuasive penalties for their infringement. For certain specific infringements, Member States should take into account the margins and criteria set out in this Regulation. The European Data Protection Supervisor should have the power to impose fines on Union institutions, agencies and bodies falling within the scope of this Regulation.

(85) In order to ensure that the regulatory framework can be adapted where necessary, the power to adopt acts in accordance with Article 290 TFEU should be delegated to the Commission to amend the techniques and approaches referred to in Annex I to define AI systems, the Union harmonisation legislation listed in Annex II, the high-risk AI systems listed in Annex III, the provisions regarding technical documentation listed in Annex IV, the content of the EU declaration of conformity in Annex V, the provisions regarding the conformity assessment procedures in Annex VI and VII and the provisions establishing the high-risk AI systems to which the conformity assessment procedure based on assessment of the quality management system and assessment of the technical documentation should apply. It is of particular importance that the Commission carry out appropriate consultations during its preparatory work, including at expert level, and that those consultations be conducted in accordance with the principles laid down in the Interinstitutional Agreement of 13 April 2016 on Better Law-Making58. In particular, to ensure equal participation in the preparation of delegated acts, the European Parliament and the Council receive all documents at the same time as Member States’ experts, and their experts systematically have access to meetings of Commission expert groups dealing with the preparation of delegated acts.

(86) In order to ensure uniform conditions for the implementation of this Regulation, implementing powers should be conferred on the Commission. Those powers should be exercised in accordance with Regulation (EU) No 182/2011 of the European Parliament and of the Council59.

(87) Since the objective of this Regulation cannot be sufficiently achieved by the Member States and can rather, by reason of the scale or effects of the action, be better achieved at Union level, the Union may adopt measures in accordance with the principle of subsidiarity as set out in Article 5 TEU. In accordance with the principle of proportionality as set out in that Article, this Regulation does not go beyond what is necessary in order to achieve that objective.

(88) This Regulation should apply from … [OP – please insert the date established in Art. 85]. However, the infrastructure related to the governance and the conformity assessment system should be operational before that date, therefore the provisions on notified bodies and governance structure should apply from … [OP – please insert the date – three months following the entry into force of this Regulation]. In addition, Member States should lay down and notify to the Commission the rules on penalties, including administrative fines, and ensure that they are properly and effectively implemented by the date of application of this Regulation. Therefore the provisions on penalties should apply from [OP – please insert the date – twelve months following the entry into force of this Regulation].

(89) The European Data Protection Supervisor and the European Data Protection Board were consulted in accordance with Article 42(2) of Regulation (EU) 2018/1725 and delivered an opinion on […]”.

HAVE ADOPTED THIS REGULATION:

TITLE I. GENERAL PROVISIONS

Article 1 Subject matter

This Regulation lays down:

(a) harmonised rules for the placing on the market, the putting into service and the use of artificial intelligence systems (‘AI systems’) in the Union;

(a) prohibitions of certain artificial intelligence practices;

(b) specific requirements for high-risk AI systems and obligations for operators of such systems;

(c) harmonised transparency rules for AI systems intended to interact with natural persons, emotion recognition systems and biometric categorisation systems, and AI systems used to generate or manipulate image, audio or video content;

(d) rules on market monitoring and surveillance.               

Article 2 Scope

1. This Regulation applies to:

(a) providers placing on the market or putting into service AI systems in the Union, irrespective of whether those providers are established within the Union or in a third country;

(b) users of AI systems located within the Union;

(c) providers and users of AI systems that are located in a third country, where the output produced by the system is used in the Union;

2. For high-risk AI systems that are safety components of products or systems, or which are themselves products or systems, falling within the scope of the following acts, only Article 84 of this Regulation shall apply:

(a) Regulation (EC) 300/2008;

(b) Regulation (EU) nº 167/2013;

(c) Regulation (EU) nº 168/2013;

(d) Directive 2014/90/EU;

(e) Directive (EU) 2016/797;

(f) Regulation (EU) 2018/858;

(g) Regulation (EU) 2018/1139;

(h) Regulation (EU) 2019/2144.

3. This Regulation shall not apply to AI systems developed or used exclusively for military purposes.

4. This Regulation shall not apply to public authorities in a third country nor to international organisations falling within the scope of this Regulation pursuant to paragraph 1, where those authorities or organisations use AI systems in the framework of international agreements for law enforcement and judicial cooperation with the Union or with one or more Member States.

5. This Regulation shall not affect the application of the provisions on the liability of intermediary service providers set out in Chapter II, Section IV of Directive 2000/31/EC of the European Parliament and of the Council (60) [as to be replaced by the corresponding provisions of the Digital Services Act].

Article 3 Definitions

For the purpose of this Regulation, the following definitions apply:

(1) ‘artificial intelligence system’ (AI system) means software that is developed with one or more of the techniques and approaches listed in Annex I and can, for a given set of human-defined objectives, generate outputs such as content, predictions, recommendations, or decisions influencing the environments they interact with;

(1) ‘provider’ means a natural or legal person, public authority, agency or other body that develops an AI system or that has an AI system developed with a view to placing it on the market or putting it into service under its own name or trademark, whether for payment or free of charge;

(3) ‘small-scale provider’ means a provider that is a micro or small enterprise within the meaning of Commission Recommendation 2003/361/EC (61);

(4) ‘user’ means any natural or legal person, public authority, agency or other body using an AI system under its authority, except where the AI system is used in the course of a personal non-professional activity;

(5) ‘authorised representative’ means any natural or legal person established in the Union who has received a written mandate from a provider of an AI system to, respectively, perform and carry out on its behalf the obligations and procedures established by this Regulation;

(6) ‘importer’ means any natural or legal person established in the Union that places on the market or puts into service an AI system that bears the name or trademark of a natural or legal person established outside the Union;

(7) ‘distributor’ means any natural or legal person in the supply chain, other than the provider or the importer, that makes an AI system available on the Union market without affecting its properties;

(8) ‘operator’ means the provider, the user, the authorised representative, the importer and the distributor;

(9) ‘placing on the market’ means the first making available of an AI system on the Union market;

(10) ‘making available on the market’ means any supply of an AI system for distribution or use on the Union market in the course of a commercial activity, whether in return for payment or free of charge;

(11) ‘putting into service’ means the supply of an AI system for first use directly to the user or for own use on the Union market for its intended purpose;

(12) ‘intended purpose’ means the use for which an AI system is intended by the provider, including the specific context and conditions of use, as specified in the information supplied by the provider in the instructions for use, promotional or sales materials and statements, as well as in the technical documentation;

(13) ‘reasonably foreseeable misuse’ means the use of an AI system in a way that is not in accordance with its intended purpose, but which may result from reasonably foreseeable human behaviour or interaction with other systems;

(14) ‘safety component of a product or system’ means a component of a product or of a system which fulfils a safety function for that product or system or the failure or malfunctioning of which endangers the health and safety of persons or property;

(15) ‘instructions for use’ means the information provided by the provider to inform the user of in particular an AI system’s intended purpose and proper use, inclusive of the specific geographical, behavioural or functional setting within which the high-risk AI system is intended to be used;

(16) ‘recall of an AI system’ means any measure aimed at achieving the return to the provider of an AI system made available to users;

(17) ‘withdrawal of an AI system’ means any measure aimed at preventing the distribution, display and offer of an AI system;

(18) ‘performance of an AI system’ means the ability of an AI system to achieve its intended purpose;

(19) ‘notifying authority’ means the national authority responsible for setting up and carrying out the necessary procedures for the assessment, designation and notification of conformity assessment bodies and for their monitoring;

(20) ‘conformity assessment’ means the process of verifying whether the requirements set out in Title III, Chapter 2 of this Regulation relating to an AI system have been fulfilled;

(21) ‘conformity assessment body’ means a body that performs third-party conformity assessment activities, including testing, certification and inspection;

(22) ‘notified body’ means a conformity assessment body designated in accordance with this Regulation and other relevant Union harmonisation legislation;

(23) ‘substantial modification’ means a change to the AI system following its placing on the market or putting into service which affects the compliance of the AI system with the requirements set out in Title III, Chapter 2 of this Regulation or results in a modification to the intended purpose for which the AI system has been assessed;

(24) ‘CE marking of conformity’ (CE marking) means a marking by which a provider indicates that an AI system is in conformity with the requirements set out in Title III, Chapter 2 of this Regulation and other applicable Union legislation harmonising the conditions for the marketing of products (‘Union harmonisation legislation’) providing for its affixing;

(25) ‘post-market monitoring’ means all activities carried out by providers of AI systems to proactively collect and review experience gained from the use of AI systems they place on the market or put into service for the purpose of identifying any need to immediately apply any necessary corrective or preventive actions;

(26) ‘market surveillance authority’ means the national authority carrying out the activities and taking the measures pursuant to Regulation (EU) 2019/1020;

(27) ‘harmonised standard’ means a European standard as defined in Article 2(1)(c) of Regulation (EU) nº 1025/2012;

(28) ‘common specifications’ means a document, other than a standard, containing technical solutions providing a means to, comply with certain requirements and obligations established under this Regulation;

(29) ‘training data’ means data used for training an AI system through fitting its learnable parameters, including the weights of a neural network;

(30) ‘validation data’ means data used for providing an evaluation of the trained AI system and for tuning its non-learnable parameters and its learning process, among other things, in order to prevent overfitting; whereas the validation dataset can be a separate dataset or part of the training dataset, either as a fixed or variable split;

(31) ‘testing data’ means data used for providing an independent evaluation of the trained and validated AI system in order to confirm the expected performance of that system before its placing on the market or putting into service;

(32) ‘input data’ means data provided to or directly acquired by an AI system on the basis of which the system produces an output;

(33) ‘biometric data’ means personal data resulting from specific technical processing relating to the physical, physiological or behavioural characteristics of a natural person, which allow or confirm the unique identification of that natural person, such as facial images or dactyloscopic data;

(34) ‘emotion recognition system’ means an AI system for the purpose of identifying or inferring emotions or intentions of natural persons on the basis of their biometric data;

(35) ‘biometric categorisation system’ means an AI system for the purpose of assigning natural persons to specific categories, such as sex, age, hair colour, eye colour, tattoos, ethnic origin or sexual or political orientation, on the basis of their biometric data;

(36) ‘remote biometric identification system’ means an AI system for the purpose of identifying natural persons at a distance through the comparison of a person’s biometric data with the biometric data contained in a reference database, and without prior knowledge of the user of the AI system whether the person will be present and can be identified ;

(37) ‘‘real-time’ remote biometric identification system’ means a remote biometric identification system whereby the capturing of biometric data, the comparison and the identification all occur without a significant delay. This comprises not only instant identification, but also limited short delays in order to avoid circumvention.

(38) ‘‘post’ remote biometric identification system’ means a remote biometric identification system other than a ‘real-time’ remote biometric identification system;

(39) ‘publicly accessible space’ means any physical place accessible to the public, regardless of whether certain conditions for access may apply;

(40) ‘law enforcement authority’ means:

(a) any public authority competent for the prevention, investigation, detection or prosecution of criminal offences or the execution of criminal penalties, including the safeguarding against and the prevention of threats to public security; or

(b) any other body or entity entrusted by Member State law to exercise public authority and public powers for the purposes of the prevention, investigation, detection or prosecution of criminal offences or the execution of criminal penalties, including the safeguarding against and the prevention of threats to public security;

(41) ‘law enforcement’ means activities carried out by law enforcement authorities for the prevention, investigation, detection or prosecution of criminal offences or the execution of criminal penalties, including the safeguarding against and the prevention of threats to public security;

(42) ‘national supervisory authority’ means the authority to which a Member State assigns the responsibility for the implementation and application of this Regulation, for coordinating the activities entrusted to that Member State, for acting as the single contact point for the Commission, and for representing the Member State at the European Artificial Intelligence Board;

(43) ‘national competent authority’ means the national supervisory authority, the notifying authority and the market surveillance authority;

(44) ‘serious incident’ means any incident that directly or indirectly leads, might have led or might lead to any of the following:

(a) the death of a person or serious damage to a person’s health, to property or the environment,

(b) a serious and irreversible disruption of the management and operation of critical infrastructure.

Article 4 Amendments to Annex I

The Commission is empowered to adopt delegated acts in accordance with Article 73 to amend the list of techniques and approaches listed in Annex I, in order to update that list to market and technological developments on the basis of characteristics that are similar to the techniques and approaches listed therein.

TITLE II. PROHIBITED ARTIFICIAL INTELLIGENCE PRACTICES

Article 5

1. The following artificial intelligence practices shall be prohibited:

(a) the placing on the market, putting into service or use of an AI system that deploys subliminal techniques beyond a person’s consciousness in order to materially distort a person’s behaviour in a manner that causes or is likely to cause that person or another person physical or psychological harm;

(b) the placing on the market, putting into service or use of an AI system that exploits any of the vulnerabilities of a specific group of persons due to their age, physical or mental disability, in order to materially distort the behaviour of a person pertaining to that group in a manner that causes or is likely to cause that person or another person physical or psychological harm;

(c) the placing on the market, putting into service or use of AI systems by public authorities or on their behalf for the evaluation or classification of the trustworthiness of natural persons over a certain period of time based on their social behaviour or known or predicted personal or personality characteristics, with the social score leading to either or both of the following:

(i) detrimental or unfavourable treatment of certain natural persons or whole groups thereof in social contexts which are unrelated to the contexts in which the data was originally generated or collected;

(ii) detrimental or unfavourable treatment of certain natural persons or whole groups thereof that is unjustified or disproportionate to their social behaviour or its gravity; (d) the use of ‘real-time’ remote biometric identification systems in publicly accessible spaces for the purpose of law enforcement, unless and in as far as such use is strictly necessary for one of the following objectives:

(i) the targeted search for specific potential victims of crime, including missing children;

(ii) the prevention of a specific, substantial and imminent threat to the life or physical safety of natural persons or of a terrorist attack;

(iii) the detection, localisation, identification or prosecution of a perpetrator or suspect of a criminal offence referred to in Article 2(2) of Council Framework Decision 2002/584/JHA (62) and punishable in the Member State concerned by a custodial sentence or a detention order for a maximum period of at least three years, as determined by the law of that Member State.

2. The use of ‘real-time’ remote biometric identification systems in publicly accessible spaces for the purpose of law enforcement for any of the objectives referred to in paragraph 1 point d) shall take into account the following elements:

(a) the nature of the situation giving rise to the possible use, in particular the seriousness, probability and scale of the harm caused in the absence of the use of the system;

(b) the consequences of the use of the system for the rights and freedoms of all persons concerned, in particular the seriousness, probability and scale of those consequences.

In addition, the use of ‘real-time’ remote biometric identification systems in publicly accessible spaces for the purpose of law enforcement for any of the objectives referred to in paragraph 1 point d) shall comply with necessary and proportionate safeguards and conditions in relation to the use, in particular as regards the temporal, geographic and personal limitations.

3. As regards paragraphs 1, point (d) and 2, each individual use for the purpose of law enforcement of a ‘real-time’ remote biometric identification system in publicly accessible spaces shall be subject to a prior authorisation granted by a judicial authority or by an independent administrative authority of the Member State in which the use is to take place, issued upon a reasoned request and in accordance with the detailed rules of national law referred to in paragraph 4. However, in a duly justified situation of urgency, the use of the system may be commenced without an authorisation and the authorisation may be requested only during or after the use.

The competent judicial or administrative authority shall only grant the authorisation where it is satisfied, based on objective evidence or clear indications presented to it, that the use of the ‘real-time’ remote biometric identification system at issue is necessary for and proportionate to achieving one of the objectives specified in paragraph 1, point (d), as identified in the request. In deciding on the request, the competent judicial or administrative authority shall take into account the elements referred to in paragraph 2.

4. A Member State may decide to provide for the possibility to fully or partially authorise the use of ‘real-time’ remote biometric identification systems in publicly accessible spaces for the purpose of law enforcement within the limits and under the conditions listed in paragraphs 1, point (d), 2 and 3. That Member State shall lay down in its national law the necessary detailed rules for the request, issuance and exercise of, as well as supervision relating to, the authorisations referred to in paragraph 3. Those rules shall also specify in respect of which of the objectives listed in paragraph 1, point (d), including which of the criminal offences referred to in point (iii) thereof, the competent authorities may be authorised to use those systems for the purpose of law enforcement.

TITLE III. HIGH-RISK AI SYSTEMS

CHAPTER 1. CLASSIFICATION OF AI SYSTEMS AS HIGH-RISK

Article 6 Classification rules for high-risk AI systems

1. Irrespective of whether an AI system is placed on the market or put into service independently from the products referred to in points (a) and (b), that AI system shall be considered high-risk where both of the following conditions are fulfilled:

(a) the AI system is intended to be used as a safety component of a product, or is itself a product, covered by the Union harmonisation legislation listed in Annex II;

(b) the product whose safety component is the AI system, or the AI system itself as a product, is required to undergo a third-party conformity assessment with a view to the placing on the market or putting into service of that product pursuant to the Union harmonisation legislation listed in Annex II.

2. In addition to the high-risk AI systems referred to in paragraph 1, AI systems referred to in Annex III shall also be considered high-risk.

Article 7 Amendments to Annex III

1. The Commission is empowered to adopt delegated acts in accordance with Article 73 to update the list in Annex III by adding high-risk AI systems where both of the following conditions are fulfilled:

(a) the AI systems are intended to be used in any of the areas listed in points 1 to 8 of Annex III;

(b) the AI systems pose a risk of harm to the health and safety, or a risk of adverse impact on fundamental rights, that is, in respect of its severity and probability of occurrence, equivalent to or greater than the risk of harm or of adverse impact posed by the high-risk AI systems already referred to in Annex III.

2. When assessing for the purposes of paragraph 1 whether an AI system poses a risk of harm to the health and safety or a risk of adverse impact on fundamental rights that is equivalent to or greater than the risk of harm posed by the high-risk AI systems already referred to in Annex III, the Commission shall take into account the following criteria:

(a) the intended purpose of the AI system;

(b) the extent to which an AI system has been used or is likely to be used;

(c) the extent to which the use of an AI system has already caused harm to the health and safety or adverse impact on the fundamental rights or has given rise to significant concerns in relation to the materialisation of such harm or adverse impact, as demonstrated by reports or documented allegations submitted to national competent authorities;

(d) the potential extent of such harm or such adverse impact, in particular in terms of its intensity and its ability to affect a plurality of persons;

(e) the extent to which potentially harmed or adversely impacted persons are dependent on the outcome produced with an AI system, in particular because for practical or legal reasons it is not reasonably possible to opt-out from that outcome;

(f) the extent to which potentially harmed or adversely impacted persons are in a vulnerable position in relation to the user of an AI system, in particular due to an imbalance of power, knowledge, economic or social circumstances, or age;

(g) the extent to which the outcome produced with an AI system is easily reversible, whereby outcomes having an impact on the health or safety of persons shall not be considered as easily reversible;

(h) the extent to which existing Union legislation provides for:

(i) effective measures of redress in relation to the risks posed by an AI system, with the exclusion of claims for damages;

(ii) effective measures to prevent or substantially minimise those risks.

CHAPTER 2. REQUIREMENTS FOR HIGH-RISK AI SYSTEMS

Article 8. Compliance with the requirements

1. High-risk AI systems shall comply with the requirements established in this Chapter.

2. The intended purpose of the high-risk AI system and the risk management system referred to in Article 9 shall be taken into account when ensuring compliance with those requirements.

Article 9. Risk management system

1. A risk management system shall be established, implemented, documented and maintained in relation to high-risk AI systems.

2. The risk management system shall consist of a continuous iterative process run throughout the entire lifecycle of a high-risk AI system, requiring regular systematic updating. It shall comprise the following steps:

(a) identification and analysis of the known and foreseeable risks associated with each high-risk AI system;

(b) estimation and evaluation of the risks that may emerge when the high-risk AI system is used in accordance with its intended purpose and under conditions of reasonably foreseeable misuse;

(c) evaluation of other possibly arising risks based on the analysis of data gathered from the post-market monitoring system referred to in Article 61;

(d) adoption of suitable risk management measures in accordance with the provisions of the following paragraphs.

3. The risk management measures referred to in paragraph 2, point (d) shall give due consideration to the effects and possible interactions resulting from the combined application of the requirements set out in this Chapter 2. They shall take into account the generally acknowledged state of the art, including as reflected in relevant harmonised standards or common specifications.

4. The risk management measures referred to in paragraph 2, point (d) shall be such that any residual risk associated with each hazard as well as the overall residual risk of the high-risk AI systems is judged acceptable, provided that the high-risk AI system is used in accordance with its intended purpose or under conditions of reasonably foreseeable misuse. Those residual risks shall be communicated to the user.

In identifying the most appropriate risk management measures, the following shall be ensured:

(a) elimination or reduction of risks as far as possible through adequate design and development;

(b) where appropriate, implementation of adequate mitigation and control measures in relation to risks that cannot be eliminated;

(c) provision of adequate information pursuant to Article 13, in particular as regards the risks referred to in paragraph 2, point (b) of this Article, and, where appropriate, training to users.

In eliminating or reducing risks related to the use of the high-risk AI system, due consideration shall be given to the technical knowledge, experience, education, training to be expected by the user and the environment in which the system is intended to be used.

5. High-risk AI systems shall be tested for the purposes of identifying the most appropriate risk management measures. Testing shall ensure that high-risk AI systems perform consistently for their intended purpose and they are in compliance with the requirements set out in this Chapter.

6. Testing procedures shall be suitable to achieve the intended purpose of the AI system and do not need to go beyond what is necessary to achieve that purpose.

7. The testing of the high-risk AI systems shall be performed, as appropriate, at any point in time throughout the development process, and, in any event, prior to the placing on the market or the putting into service. Testing shall be made against preliminarily defined metrics and probabilistic thresholds that are appropriate to the intended purpose of the high-risk AI system.

8. When implementing the risk management system described in paragraphs 1 to 7, specific consideration shall be given to whether the high-risk AI system is likely to be accessed by or have an impact on children.

9. For credit institutions regulated by Directive 2013/36/EU, the aspects described in paragraphs 1 to 8 shall be part of the risk management procedures established by those institutions pursuant to Article 74 of that Directive.

Article 10. Data and data governance

1. High-risk AI systems which make use of techniques involving the training of models with data shall be developed on the basis of training, validation and testing data sets that meet the quality criteria referred to in paragraphs 2 to 5.

2. Training, validation and testing data sets shall be subject to appropriate data governance and management practices. Those practices shall concern in particular,

(a) the relevant design choices;

(b) data collection;

(c) relevant data preparation processing operations, such as annotation, labelling, cleaning, enrichment and aggregation;

(d) the formulation of relevant assumptions, notably with respect to the information that the data are supposed to measure and represent;

(e) a prior assessment of the availability, quantity and suitability of the data sets that are needed;

(f) examination in view of possible biases;

(g) the identification of any possible data gaps or shortcomings, and how those gaps and shortcomings can be addressed.

3. Training, validation and testing data sets shall be relevant, representative, free of errors and complete. They shall have the appropriate statistical properties, including, where applicable, as regards the persons or groups of persons on which the high-risk AI system is intended to be used. These characteristics of the data sets may be met at the level of individual data sets or a combination thereof.

4. Training, validation and testing data sets shall take into account, to the extent required by the intended purpose, the characteristics or elements that are particular to the specific geographical, behavioural or functional setting within which the high-risk AI system is intended to be used.

5. To the extent that it is strictly necessary for the purposes of ensuring bias monitoring, detection and correction in relation to the high-risk AI systems, the providers of such systems may process special categories of personal data referred to in Article 9(1) of Regulation (EU) 2016/679, Article 10 of Directive (EU) 2016/680 and Article 10(1) of Regulation (EU) 2018/1725, subject to appropriate safeguards for the fundamental rights and freedoms of natural persons, including technical limitations on the re-use and use of state-of-the-art security and privacy-preserving measures, such as pseudonymisation, or encryption where anonymisation may significantly affect the purpose pursued.

6. Appropriate data governance and management practices shall apply for the development of high-risk AI systems other than those which make use of techniques involving the training of models in order to ensure that those high-risk AI systems comply with paragraph 2.

Article 11. Technical documentation

1. The technical documentation of a high-risk AI system shall be drawn up before that system is placed on the market or put into service and shall be kept up-to date.

The technical documentation shall be drawn up in such a way to demonstrate that the high-risk AI system complies with the requirements set out in this Chapter and provide national competent authorities and notified bodies with all the necessary information to assess the compliance of the AI system with those requirements. It shall contain, at a minimum, the elements set out in Annex IV.

2. Where a high-risk AI system related to a product, to which the legal acts listed in Annex II, section A apply, is placed on the market or put into service one single technical documentation shall be drawn up containing all the information set out in Annex IV as well as the information required under those legal acts.

3. The Commission is empowered to adopt delegated acts in accordance with Article 73 to amend Annex IV where necessary to ensure that, in the light of technical progress, the technical documentation provides all the necessary information to assess the compliance of the system with the requirements set out in this Chapter.

Article 12. Record-keeping

1. High-risk AI systems shall be designed and developed with capabilities enabling the automatic recording of events (‘logs’) while the high-risk AI systems is operating. Those logging capabilities shall conform to recognised standards or common specifications.

2. The logging capabilities shall ensure a level of traceability of the AI system’s functioning throughout its lifecycle that is appropriate to the intended purpose of the system.

3. In particular, logging capabilities shall enable the monitoring of the operation of the high-risk AI system with respect to the occurrence of situations that may result in the AI system presenting a risk within the meaning of Article 65(1) or lead to a substantial modification, and facilitate the post-market monitoring referred to in Article 61.

4. For high-risk AI systems referred to in paragraph 1, point (a) of Annex III, the logging capabilities shall provide, at a minimum:

(a) recording of the period of each use of the system (start date and time and end date and time of each use);

(b) the reference database against which input data has been checked by the system;

(c) the input data for which the search has led to a match;

(d) the identification of the natural persons involved in the verification of the results, as referred to in Article 14 (5).

Article 13. Transparency and provision of information to users

1. High-risk AI systems shall be designed and developed in such a way to ensure that their operation is sufficiently transparent to enable users to interpret the system’s output and use it appropriately. An appropriate type and degree of transparency shall be ensured, with a view to achieving compliance with the relevant obligations of the user and of the provider set out in Chapter 3 of this Title.

2. High-risk AI systems shall be accompanied by instructions for use in an appropriate digital format or otherwise that include concise, complete, correct and clear information that is relevant, accessible and comprehensible to users.

3. The information referred to in paragraph 2 shall specify:

(a) the identity and the contact details of the provider and, where applicable, of its authorised representative;

(b) the characteristics, capabilities and limitations of performance of the high-risk AI system, including:

(i) its intended purpose;

(ii) the level of accuracy, robustness and cybersecurity referred to in Article 15 against which the high-risk AI system has been tested and validated and which can be expected, and any known and foreseeable circumstances that may have an impact on that expected level of accuracy, robustness and cybersecurity;

(iii) any known or foreseeable circumstance, related to the use of the high-risk AI system in accordance with its intended purpose or under conditions of reasonably foreseeable misuse, which may lead to risks to the health and safety or fundamental rights;

(iv) its performance as regards the persons or groups of persons on which the system is intended to be used;

(v) when appropriate, specifications for the input data, or any other relevant information in terms of the training, validation and testing data sets used, taking into account the intended purpose of the AI system.

(c) the changes to the high-risk AI system and its performance which have been pre-determined by the provider at the moment of the initial conformity assessment, if any;

(d) the human oversight measures referred to in Article 14, including the technical measures put in place to facilitate the interpretation of the outputs of AI systems by the users;

(e) the expected lifetime of the high-risk AI system and any necessary maintenance and care measures to ensure the proper functioning of that AI system, including as regards software updates.

Article 14. Human oversight

1. High-risk AI systems shall be designed and developed in such a way, including with appropriate human-machine interface tools, that they can be effectively overseen by natural persons during the period in which the AI system is in use.

2. Human oversight shall aim at preventing or minimising the risks to health, safety or fundamental rights that may emerge when a high-risk AI system is used in accordance with its intended purpose or under conditions of reasonably foreseeable misuse, in particular when such risks persist notwithstanding the application of other requirements set out in this Chapter.

3. Human oversight shall be ensured through either one or all of the following measures:

(a) identified and built, when technically feasible, into the high-risk AI system by the provider before it is placed on the market or put into service;

(b) identified by the provider before placing the high-risk AI system on the market or putting it into service and that are appropriate to be implemented by the user.

4. The measures referred to in paragraph 3 shall enable the individuals to whom human oversight is assigned to do the following, as appropriate to the circumstances:

(a) fully understand the capacities and limitations of the high-risk AI system and be able to duly monitor its operation, so that signs of anomalies, dysfunctions and unexpected performance can be detected and addressed as soon as possible;

(b) remain aware of the possible tendency of automatically relying or over-relying on the output produced by a high-risk AI system (‘automation bias’), in particular for high-risk AI systems used to provide information or recommendations for decisions to be taken by natural persons;

(c) be able to correctly interpret the high-risk AI system’s output, taking into account in particular the characteristics of the system and the interpretation tools and methods available;

(d) be able to decide, in any particular situation, not to use the high-risk AI system or otherwise disregard, override or reverse the output of the high-risk AI system;

(e) be able to intervene on the operation of the high-risk AI system or interrupt the system through a “stop” button or a similar procedure.

5. For high-risk AI systems referred to in point 1(a) of Annex III, the measures referred to in paragraph 3 shall be such as to ensure that, in addition, no action or decision is taken by the user on the basis of the identification resulting from the system unless this has been verified and confirmed by at least two natural persons.

Article 15. Accuracy, robustness and cybersecurity

1. High-risk AI systems shall be designed and developed in such a way that they achieve, in the light of their intended purpose, an appropriate level of accuracy, robustness and cybersecurity, and perform consistently in those respects throughout their lifecycle.

2. The levels of accuracy and the relevant accuracy metrics of high-risk AI systems shall be declared in the accompanying instructions of use.

3. High-risk AI systems shall be resilient as regards errors, faults or inconsistencies that may occur within the system or the environment in which the system operates, in particular due to their interaction with natural persons or other systems.

The robustness of high-risk AI systems may be achieved through technical redundancy solutions, which may include backup or fail-safe plans.

High-risk AI systems that continue to learn after being placed on the market or put into service shall be developed in such a way to ensure that possibly biased outputs due to outputs used as an input for future operations (‘feedback loops’) are duly addressed with appropriate mitigation measures.

4. High-risk AI systems shall be resilient as regards attempts by unauthorised third parties to alter their use or performance by exploiting the system vulnerabilities.

The technical solutions aimed at ensuring the cybersecurity of high-risk AI systems shall be appropriate to the relevant circumstances and the risks.

The technical solutions to address AI specific vulnerabilities shall include, where appropriate, measures to prevent and control for attacks trying to manipulate the training dataset (‘data poisoning’), inputs designed to cause the model to make a mistake (‘adversarial examples’), or model flaws.

CHAPTER 3. OBLIGATIONS OF PROVIDERS AND USERS OF HIGH-RISK AI SYSTEMS AND OTHER PARTIES

Article 16. Obligations of providers of high-risk AI systems

Providers of high-risk AI systems shall:

(a) ensure that their high-risk AI systems are compliant with the requirements set out in Chapter 2 of this Title;

(b) have a quality management system in place which complies with Article 17;

(c) draw-up the technical documentation of the high-risk AI system;

(d) when under their control, keep the logs automatically generated by their high-risk AI systems;

(e) ensure that the high-risk AI system undergoes the relevant conformity assessment procedure, prior to its placing on the market or putting into service;

(f) comply with the registration obligations referred to in Article 51;

(g) take the necessary corrective actions, if the high-risk AI system is not in conformity with the requirements set out in Chapter 2 of this Title;

(h) inform the national competent authorities of the Member States in which they made the AI system available or put it into service and, where applicable, the notified body of the non-compliance and of any corrective actions taken;

(i) to affix the CE marking to their high-risk AI systems to indicate the conformity with this Regulation in accordance with Article 49;

(j) upon request of a national competent authority, demonstrate the conformity of the high-risk AI system with the requirements set out in Chapter 2 of this Title.

Article 17. Quality management system

1. Providers of high-risk AI systems shall put a quality management system in place that ensures compliance with this Regulation. That system shall be documented in a systematic and orderly manner in the form of written policies, procedures and instructions, and shall include at least the following aspects:

(a) a strategy for regulatory compliance, including compliance with conformity assessment procedures and procedures for the management of modifications to the high-risk AI system;

(b) techniques, procedures and systematic actions to be used for the design, design control and design verification of the high-risk AI system;

(c) techniques, procedures and systematic actions to be used for the development, quality control and quality assurance of the high-risk AI system;

(d) examination, test and validation procedures to be carried out before, during and after the development of the high-risk AI system, and the frequency with which they have to be carried out;

(e) technical specifications, including standards, to be applied and, where the relevant harmonised standards are not applied in full, the means to be used to ensure that the high-risk AI system complies with the requirements set out in Chapter 2 of this Title;

(f) systems and procedures for data management, including data collection, data analysis, data labelling, data storage, data filtration, data mining, data aggregation, data retention and any other operation regarding the data that is performed before and for the purposes of the placing on the market or putting into service of high-risk AI systems;

(g) the risk management system referred to in Article 9;

(h) the setting-up, implementation and maintenance of a post-market monitoring system, in accordance with Article 61;

(i) procedures related to the reporting of serious incidents and of malfunctioning in accordance with Article 62;

(j) the handling of communication with national competent authorities, competent authorities, including sectoral ones, providing or supporting the access to data, notified bodies, other operators, customers or other interested parties;

(k) systems and procedures for record keeping of all relevant documentation and information;

(l) resource management, including security of supply related measures;

(m) an accountability framework setting out the responsibilities of the management and other staff with regard to all aspects listed in this paragraph.

2. The implementation of aspects referred to in paragraph 1 shall be proportionate to the size of the provider’s organisation.

3. For providers that are credit institutions regulated by Directive 2013/36/ EU, the obligation to put a quality management system in place shall be deemed to be fulfilled by complying with the rules on internal governance arrangements, processes and mechanisms pursuant to Article 74 of that Directive. In that context, any harmonised standards referred to in Article 40 of this Regulation shall be taken into account.

Article 18. Obligation to draw up technical documentation

1. Providers of high-risk AI systems shall draw up the technical documentation referred to in Article 11 in accordance with Annex IV.

2. Providers that are credit institutions regulated by Directive 2013/36/EU shall maintain the technical documentation as part of the documentation concerning internal governance, arrangements, processes and mechanisms pursuant to Article 74 of that Directive.

Article 19. Conformity assessment

1. Providers of high-risk AI systems shall ensure that their systems undergo the relevant conformity assessment procedure in accordance with Article 43, prior to their placing on the market or putting into service. Where the compliance of the AI systems with the requirements set out in Chapter 2 of this Title has been demonstrated following that conformity assessment, the providers shall draw up an EU declaration of conformity in accordance with Article 48 and affix the CE marking of conformity in accordance with Article 49.

2. For high-risk AI systems referred to in point 5(b) of Annex III that are placed on the market or put into service by providers that are credit institutions regulated by Directive 2013/36/EU, the conformity assessment shall be carried out as part of the procedure referred to in Articles 97 to101 of that Directive.

Article 20. Automatically generated logs

1. Providers of high-risk AI systems shall keep the logs automatically generated by their high-risk AI systems, to the extent such logs are under their control by virtue of a contractual arrangement with the user or otherwise by law. The logs shall be kept for a period that is appropriate in the light of the intended purpose of high-risk AI system and applicable legal obligations under Union or national law.

2. Providers that are credit institutions regulated by Directive 2013/36/EU shall maintain the logs automatically generated by their high-risk AI systems as part of the documentation under Articles 74 of that Directive.

Article 21. Corrective actions

Providers of high-risk AI systems which consider or have reason to consider that a high-risk AI system which they have placed on the market or put into service is not in conformity with this Regulation shall immediately take the necessary corrective actions to bring that system into conformity, to withdraw it or to recall it, as appropriate. They shall inform the distributors of the high-risk AI system in question and, where applicable, the authorised representative and importers accordingly.

Article 22. Duty of information Where the high-risk AI system presents a risk within the meaning of Article 65(1) and that risk is known to the provider of the system, that provider shall immediately inform the national competent authorities of the Member States in which it made the system available and, where applicable, the notified body that issued a certificate for the high-risk AI system, in particular of the non-compliance and of any corrective actions taken.

Article 23. Cooperation with competent authorities

Providers of high-risk AI systems shall, upon request by a national competent authority, provide that authority with all the information and documentation necessary to demonstrate the conformity of the high-risk AI system with the requirements set out in Chapter 2 of this Title, in an official Union language determined by the Member State concerned. Upon a reasoned request from a national competent authority, providers shall also give that authority access to the logs automatically generated by the high-risk AI system, to the extent such logs are under their control by virtue of a contractual arrangement with the user or otherwise by law.

Article 24. Obligations of product manufacturers Where a high-risk AI system related to products to which the legal acts listed in Annex II, section A, apply, is placed on the market or put into service together with the product manufactured in accordance with those legal acts and under the name of the product manufacturer, the manufacturer of the product shall take the responsibility of the compliance of the AI system with this Regulation and, as far as the AI system is concerned, have the same obligations imposed by the present Regulation on the provider.

Article 25. Authorised representatives

1. Prior to making their systems available on the Union market, where an importer cannot be identified, providers established outside the Union shall, by written mandate, appoint an authorised representative which is established in the Union.

2. The authorised representative shall perform the tasks specified in the mandate received from the provider. The mandate shall empower the authorised representative to carry out the following tasks:

(a) keep a copy of the EU declaration of conformity and the technical documentation at the disposal of the national competent authorities and national authorities referred to in Article 63(7);

(b) provide a national competent authority, upon a reasoned request, with all the information and documentation necessary to demonstrate the conformity of a high-risk AI system with the requirements set out in Chapter 2 of this Title, including access to the logs automatically generated by the high-risk AI system to the extent such logs are under the control of the provider by virtue of a contractual arrangement with the user or otherwise by law;

(c) cooperate with competent national authorities, upon a reasoned request, on any action the latter takes in relation to the high-risk AI system.

Article 26. Obligations of importers

1. Before placing a high-risk AI system on the market, importers of such system shall ensure that:

(a) the appropriate conformity assessment procedure has been carried out by the provider of that AI system

(b) the provider has drawn up the technical documentation in accordance with Annex IV;

(c) the system bears the required conformity marking and is accompanied by the required documentation and instructions of use.

2. Where an importer considers or has reason to consider that a high-risk AI system is not in conformity with this Regulation, it shall not place that system on the market until that AI system has been brought into conformity. Where the high-risk AI system presents a risk within the meaning of Article 65(1), the importer shall inform the provider of the AI system and the market surveillance authorities to that effect.

3. Importers shall indicate their name, registered trade name or registered trade mark, and the address at which they can be contacted on the high-risk AI system or, where that is not possible, on its packaging or its accompanying documentation, as applicable.

4. Importers shall ensure that, while a high-risk AI system is under their responsibility, where applicable, storage or transport conditions do not jeopardise its compliance with the requirements set out in Chapter 2 of this Title.

5. Importers shall provide national competent authorities, upon a reasoned request, with all necessary information and documentation to demonstrate the conformity of a high-risk AI system with the requirements set out in Chapter 2 of this Title in a language which can be easily understood by that national competent authority, including access to the logs automatically generated by the high-risk AI system to the extent such logs are under the control of the provider by virtue of a contractual arrangement with the user or otherwise by law. They shall also cooperate with those authorities on any action national competent authority takes in relation to that system.

Article 27. Obligations of distributors

1. Before making a high-risk AI system available on the market, distributors shall verify that the high-risk AI system bears the required CE conformity marking, that it is accompanied by the required documentation and instruction of use, and that the provider and the importer of the system, as applicable, have complied with the obligations set out in this Regulation.

2. Where a distributor considers or has reason to consider that a high-risk AI system is not in conformity with the requirements set out in Chapter 2 of this Title, it shall not make the high-risk AI system available on the market until that system has been brought into conformity with those requirements. Furthermore, where the system presents a risk within the meaning of Article 65(1), the distributor shall inform the provider or the importer of the system, as applicable, to that effect.

3. Distributors shall ensure that, while a high-risk AI system is under their responsibility, where applicable, storage or transport conditions do not jeopardise the compliance of the system with the requirements set out in Chapter 2 of this Title.

4. A distributor that considers or has reason to consider that a high-risk AI system which it has made available on the market is not in conformity with the requirements set out in Chapter 2 of this Title shall take the corrective actions necessary to bring that system into conformity with those requirements, to withdraw it or recall it or shall ensure that the provider, the importer or any relevant operator, as appropriate, takes those corrective actions. Where the high-risk AI system presents a risk within the meaning of Article 65(1), the distributor shall immediately inform the national competent authorities of the Member States in which it has made the product available to that effect, giving details, in particular, of the non-compliance and of any corrective actions taken.

5. Upon a reasoned request from a national competent authority, distributors of high-risk AI systems shall provide that authority with all the information and documentation necessary to demonstrate the conformity of a high-risk system with the requirements set out in Chapter 2 of this Title. Distributors shall also cooperate with that national competent authority on any action taken by that authority.

Article 28. Obligations of distributors, importers, users or any other third-party

1. Any distributor, importer, user or other third-party shall be considered a provider for the purposes of this Regulation and shall be subject to the obligations of the provider under Article 16, in any of the following circumstances:

(a) they place on the market or put into service a high-risk AI system under their name or trademark;

(b) they modify the intended purpose of a high-risk AI system already placed on the market or put into service;

(c) they make a substantial modification to the high-risk AI system.

2. Where the circumstances referred to in paragraph 1, point (b) or (c), occur, the provider that initially placed the high-risk AI system on the market or put it into service shall no longer be considered a provider for the purposes of this Regulation.

Article 29. Obligations of users of high-risk AI systems

1. Users of high-risk AI systems shall use such systems in accordance with the instructions of use accompanying the systems, pursuant to paragraphs 2 and 5.

2. The obligations in paragraph 1 are without prejudice to other user obligations under Union or national law and to the user’s discretion in organising its own resources and activities for the purpose of implementing the human oversight measures indicated by the provider.

3. Without prejudice to paragraph 1, to the extent the user exercises control over the input data, that user shall ensure that input data is relevant in view of the intended purpose of the high-risk AI system.

4. Users shall monitor the operation of the high-risk AI system on the basis of the instructions of use. When they have reasons to consider that the use in accordance with the instructions of use may result in the AI system presenting a risk within the meaning of Article 65(1) they shall inform the provider or distributor and suspend the use of the system. They shall also inform the provider or distributor when they have identified any serious incident or any malfunctioning within the meaning of Article 62 and interrupt the use of the AI system. In case the user is not able to reach the provider, Article 62 shall apply mutatis mutandis.

For users that are credit institutions regulated by Directive 2013/36/EU, the monitoring obligation set out in the first subparagraph shall be deemed to be fulfilled by complying with the rules on internal governance arrangements, processes and mechanisms pursuant to Article 74 of that Directive.

5. Users of high-risk AI systems shall keep the logs automatically generated by that high-risk AI system, to the extent such logs are under their control. The logs shall be kept for a period that is appropriate in the light of the intended purpose of the high-risk AI system and applicable legal obligations under Union or national law.

Users that are credit institutions regulated by Directive 2013/36/EU shall maintain the logs as part of the documentation concerning internal governance arrangements, processes and mechanisms pursuant to Article 74 of that Directive.

6. Users of high-risk AI systems shall use the information provided under Article 13 to comply with their obligation to carry out a data protection impact assessment under Article 35 of Regulation (EU) 2016/679 or Article 27 of Directive (EU) 2016/680, where applicable.

CHAPTER 4. NOTIFIYING AUTHORITIES AND NOTIFIED BODIES

Article 30. Notifying authorities

1. Each Member State shall designate or establish a notifying authority responsible for setting up and carrying out the necessary procedures for the assessment, designation and notification of conformity assessment bodies and for their monitoring.

2. Member States may designate a national accreditation body referred to in Regulation (EC) No 765/2008 as a notifying authority.

3. Notifying authorities shall be established, organised and operated in such a way that no conflict of interest arises with conformity assessment bodies and the objectivity and impartiality of their activities are safeguarded.

4. Notifying authorities shall be organised in such a way that decisions relating to the notification of conformity assessment bodies are taken by competent persons different from those who carried out the assessment of those bodies.

5. Notifying authorities shall not offer or provide any activities that conformity assessment bodies perform or any consultancy services on a commercial or competitive basis.

6. Notifying authorities shall safeguard the confidentiality of the information they obtain.

7. Notifying authorities shall have a sufficient number of competent personnel at their disposal for the proper performance of their tasks.

8. Notifying authorities shall make sure that conformity assessments are carried out in a proportionate manner, avoiding unnecessary burdens for providers and that notified bodies perform their activities taking due account of the size of an undertaking, the sector in which it operates, its structure and the degree of complexity of the AI system in question.

Article 31. Application of a conformity assessment body for notification

1. Conformity assessment bodies shall submit an application for notification to the notifying authority of the Member State in which they are established.

2. The application for notification shall be accompanied by a description of the conformity assessment activities, the conformity assessment module or modules and the artificial intelligence technologies for which the conformity assessment body claims to be competent, as well as by an accreditation certificate, where one exists, issued by a national accreditation body attesting that the conformity assessment body fulfils the requirements laid down in Article 33. Any valid document related to existing designations of the applicant notified body under any other Union harmonisation legislation shall be added.

3. Where the conformity assessment body concerned cannot provide an accreditation certificate, it shall provide the notifying authority with the documentary evidence necessary for the verification, recognition and regular monitoring of its compliance with the requirements laid down in Article 33. For notified bodies which are designated under any other Union harmonisation legislation, all documents and certificates linked to those designations may be used to support their designation procedure under this Regulation, as appropriate.

Article 32. Notification procedure

1. Notifying authorities may notify only conformity assessment bodies which have satisfied the requirements laid down in Article 33.

2. Notifying authorities shall notify the Commission and the other Member States using the electronic notification tool developed and managed by the Commission.

3. The notification shall include full details of the conformity assessment activities, the conformity assessment module or modules and the artificial intelligence technologies concerned.

4. The conformity assessment body concerned may perform the activities of a notified body only where no objections are raised by the Commission or the other Member States within one month of a notification.

5. Notifying authorities shall notify the Commission and the other Member States of any subsequent relevant changes to the notification.

Article 33. Notified bodies

1. Notified bodies shall verify the conformity of high-risk AI system in accordance with the conformity assessment procedures referred to in Article 43.

2. Notified bodies shall satisfy the organisational, quality management, resources and process requirements that are necessary to fulfil their tasks.

3. The organisational structure, allocation of responsibilities, reporting lines and operation of notified bodies shall be such as to ensure that there is confidence in the performance by and in the results of the conformity assessment activities that the notified bodies conduct.

4. Notified bodies shall be independent of the provider of a high-risk AI system in relation to which it performs conformity assessment activities. Notified bodies shall also be independent of any other operator having an economic interest in the high-risk AI system that is assessed, as well as of any competitors of the provider.

5. Notified bodies shall be organised and operated so as to safeguard the independence, objectivity and impartiality of their activities. Notified bodies shall document and implement a structure and procedures to safeguard impartiality and to promote and apply the principles of impartiality throughout their organisation, personnel and assessment activities.

6. Notified bodies shall have documented procedures in place ensuring that their personnel, committees, subsidiaries, subcontractors and any associated body or personnel of external bodies respect the confidentiality of the information which comes into their possession during the performance of conformity assessment activities, except when disclosure is required by law. The staff of notified bodies shall be bound to observe professional secrecy with regard to all information obtained in carrying out their tasks under this Regulation, except in relation to the notifying authorities of the Member State in which their activities are carried out.

7. Notified bodies shall have procedures for the performance of activities which take due account of the size of an undertaking, the sector in which it operates, its structure, the degree of complexity of the AI system in question.

8. Notified bodies shall take out appropriate liability insurance for their conformity assessment activities, unless liability is assumed by the Member State concerned in accordance with national law or that Member State is directly responsible for the conformity assessment.

9. Notified bodies shall be capable of carrying out all the tasks falling to them under this Regulation with the highest degree of professional integrity and the requisite competence in the specific field, whether those tasks are carried out by notified bodies themselves or on their behalf and under their responsibility.

10. Notified bodies shall have sufficient internal competences to be able to effectively evaluate the tasks conducted by external parties on their behalf. To that end, at all times and for each conformity assessment procedure and each type of high-risk AI system in relation to which they have been designated, the notified body shall have permanent availability of sufficient administrative, technical and scientific personnel who possess experience and knowledge relating to the relevant artificial intelligence technologies, data and data computing and to the requirements set out in Chapter 2 of this Title.

11. Notified bodies shall participate in coordination activities as referred to in Article 38. They shall also take part directly or be represented in European standardisation organisations, or ensure that they are aware and up to date in respect of relevant standards.

12. Notified bodies shall make available and submit upon request all relevant documentation, including the providers’ documentation, to the notifying authority referred to in Article 30 to allow it to conduct its assessment, designation, notification, monitoring and surveillance activities and to facilitate the assessment outlined in this Chapter.

Article 34. Subsidiaries of and subcontracting by notified bodies

1. Where a notified body subcontracts specific tasks connected with the conformity assessment or has recourse to a subsidiary, it shall ensure that the subcontractor or the subsidiary meets the requirements laid down in Article 33 and shall inform the notifying authority accordingly.

2. Notified bodies shall take full responsibility for the tasks performed by subcontractors or subsidiaries wherever these are established.

3. Activities may be subcontracted or carried out by a subsidiary only with the agreement of the provider.

4. Notified bodies shall keep at the disposal of the notifying authority the relevant documents concerning the assessment of the qualifications of the subcontractor or the subsidiary and the work carried out by them under this Regulation.

Article 35. Identification numbers and lists of notified bodies designated under this Regulation

1. The Commission shall assign an identification number to notified bodies. It shall assign a single number, even where a body is notified under several Union acts.

2. The Commission shall make publicly available the list of the bodies notified under this Regulation, including the identification numbers that have been assigned to them and the activities for which they have been notified. The Commission shall ensure that the list is kept up to date.

Article 36. Changes to notifications

1. Where a notifying authority has suspicions or has been informed that a notified body no longer meets the requirements laid down in Article 33, or that it is failing to fulfil its obligations, that authority shall without delay investigate the matter with the utmost diligence. In that context, it shall inform the notified body concerned about the objections raised and give it the possibility to make its views known. If the notifying authority comes to the conclusion that the notified body investigation no longer meets the requirements laid down in Article 33 or that it is failing to fulfil its obligations, it shall restrict, suspend or withdraw the notification as appropriate, depending on the seriousness of the failure. It shall also immediately inform the Commission and the other Member States accordingly.

2. In the event of restriction, suspension or withdrawal of notification, or where the notified body has ceased its activity, the notifying authority shall take appropriate steps to ensure that the files of that notified body are either taken over by another notified body or kept available for the responsible notifying authorities at their request.

Article 37. Challenge to the competence of notified bodies

1. The Commission shall, where necessary, investigate all cases where there are reasons to doubt whether a notified body complies with the requirements laid down in Article 33.

2. The Notifying authority shall provide the Commission, on request, with all relevant information relating to the notification of the notified body concerned.

3. The Commission shall ensure that all confidential information obtained in the course of its investigations pursuant to this Article is treated confidentially.

4. Where the Commission ascertains that a notified body does not meet or no longer meets the requirements laid down in Article 33, it shall adopt a reasoned decision requesting the notifying Member State to take the necessary corrective measures, including withdrawal of notification if necessary. That implementing act shall be adopted in accordance with the examination procedure referred to in Article 74(2).

Article 38. Coordination of notified bodies

1. The Commission shall ensure that, with regard to the areas covered by this Regulation, appropriate coordination and cooperation between notified bodies active in the conformity assessment procedures of AI systems pursuant to this Regulation are put in place and properly operated in the form of a sectoral group of notified bodies.

2. Member States shall ensure that the bodies notified by them participate in the work of that group, directly or by means of designated representatives.

Article 39. Conformity assessment bodies of third countries

Conformity assessment bodies established under the law of a third country with which the Union has concluded an agreement may be authorised to carry out the activities of notified Bodies under this Regulation.

CHAPTER 5. STANDARDS, CONFORMITY ASSESSMENT, CERTIFICATES, REGISTRATION

Article 40. Harmonised standards

High-risk AI systems which are in conformity with harmonised standards or parts thereof the references of which have been published in the Official Journal of the European Union shall be presumed to be in conformity with the requirements set out in Chapter 2 of this Title, to the extent those standards cover those requirements.

Article 41. Common specifications

1. Where harmonised standards referred to in Article 40 do not exist or where the Commission considers that the relevant harmonised standards are insufficient or that there is a need to address specific safety or fundamental right concerns, the Commission may, by means of implementing acts, adopt common specifications in respect of the requirements set out in Chapter 2 of this Title. Those implementing acts shall be adopted in accordance with the examination procedure referred to in Article 74(2).

2. The Commission, when preparing the common specifications referred to in paragraph 1, shall gather the views of relevant bodies or expert groups established under relevant sectorial Union law.

3. High-risk AI systems which are in conformity with the common specifications referred to in paragraph 1 shall be presumed to be in conformity with the requirements set out in Chapter 2 of this Title, to the extent those common specifications cover those requirements.

4. Where providers do not comply with the common specifications referred to in paragraph 1, they shall duly justify that they have adopted technical solutions that are at least equivalent thereto.

Article 42. Presumption of conformity with certain requirements

1. Taking into account their intended purpose, high-risk AI systems that have been trained and tested on data concerning the specific geographical, behavioural and functional setting within which they are intended to be used shall be presumed to be in compliance with the requirement set out in Article 10(4).

2. High-risk AI systems that have been certified or for which a statement of conformity has been issued under a cybersecurity scheme pursuant to Regulation (EU) 2019/881 of the European Parliament and of the Council (63) and the references of which have been published in the Official Journal of the European Union shall be presumed to be in compliance with the cybersecurity requirements set out in Article 15 of this Regulation in so far as the cybersecurity certificate or statement of conformity or parts thereof cover those requirements.

Article 43 Conformity assessment

1. For high-risk AI systems listed in point 1 of Annex III, where, in demonstrating the compliance of a high-risk AI system with the requirements set out in Chapter 2 of this Title, the provider has applied harmonised standards referred to in Article 40, or, where applicable, common specifications referred to in Article 41, the provider shall follow one of the following procedures:

(a) the conformity assessment procedure based on internal control referred to in Annex VI;

(b) the conformity assessment procedure based on assessment of the quality management system and assessment of the technical documentation, with the involvement of a notified body, referred to in Annex VII.

Where, in demonstrating the compliance of a high-risk AI system with the requirements set out in Chapter 2 of this Title, the provider has not applied or has applied only in part harmonised standards referred to in Article 40, or where such harmonised standards do not exist and common specifications referred to in Article 41 are not available, the provider shall follow the conformity assessment procedure set out in Annex VII.

For the purpose of the conformity assessment procedure referred to in Annex VII, the provider may choose any of the notified bodies. However, when the system is intended to be put into service by law enforcement, immigration or asylum authorities as well as EU institutions, bodies or agencies, the market surveillance authority referred to in Article 63(5) or (6), as applicable, shall act as a notified body.

2. For high-risk AI systems referred to in points 2 to 8 of Annex III, providers shall follow the conformity assessment procedure based on internal control as referred to in Annex VI, which does not provide for the involvement of a notified body. For high-risk AI systems referred to in point 5(b) of Annex III, placed on the market or put into service by credit institutions regulated by Directive 2013/36/EU, the conformity assessment shall be carried out as part of the procedure referred to in Articles 97 to101 of that Directive.

3. For high-risk AI systems, to which legal acts listed in Annex II, section A, apply, the provider shall follow the relevant conformity assessment as required under those legal acts. The requirements set out in Chapter 2 of this Title shall apply to those high-risk AI systems and shall be part of that assessment. Points 4.3., 4.4., 4.5. and the fifth paragraph of point 4.6 of Annex VII shall also apply.

For the purpose of that assessment, notified bodies which have been notified under those legal acts shall be entitled to control the conformity of the high-risk AI systems with the requirements set out in Chapter 2 of this Title, provided that the compliance of those notified bodies with requirements laid down in Article 33(4), (9) and (10) has been assessed in the context of the notification procedure under those legal acts.

Where the legal acts listed in Annex II, section A, enable the manufacturer of the product to opt out from a third-party conformity assessment, provided that that manufacturer has applied all harmonised standards covering all the relevant requirements, that manufacturer may make use of that option only if he has also applied harmonised standards or, where applicable, common specifications referred to in Article 41, covering the requirements set out in Chapter 2 of this Title.

4. High-risk AI systems shall undergo a new conformity assessment procedure whenever they are substantially modified, regardless of whether the modified system is intended to be further distributed or continues to be used by the current user.

For high-risk AI systems that continue to learn after being placed on the market or put into service, changes to the high-risk AI system and its performance that have been pre-determined by the provider at the moment of the initial conformity assessment and are part of the information contained in the technical documentation referred to in point 2(f) of Annex IV, shall not constitute a substantial modification.

5. The Commission is empowered to adopt delegated acts in accordance with Article 73 for the purpose of updating Annexes VI and Annex VII in order to introduce elements of the conformity assessment procedures that become necessary in light of technical progress.

6. The Commission is empowered to adopt delegated acts to amend paragraphs 1 and 2 in order to subject high-risk AI systems referred to in points 2 to 8 of Annex III to the conformity assessment procedure referred to in Annex VII or parts thereof. The Commission shall adopt such delegated acts taking into account the effectiveness of the conformity assessment procedure based on internal control referred to in Annex VI in preventing or minimizing the risks to health and safety and protection of fundamental rights posed by such systems as well as the availability of adequate capacities and resources among notified bodies.

Article 44. Certificates

1. Certificates issued by notified bodies in accordance with Annex VII shall be drawn-up in an official Union language determined by the Member State in which the notified body is established or in an official Union language otherwise acceptable to the notified body.

2. Certificates shall be valid for the period they indicate, which shall not exceed five years. On application by the provider, the validity of a certificate may be extended for further periods, each not exceeding five years, based on a re-assessment in accordance with the applicable conformity assessment procedures.

3. Where a notified body finds that an AI system no longer meets the requirements set out in Chapter 2 of this Title, it shall, taking account of the principle of proportionality, suspend or withdraw the certificate issued or impose any restrictions on it, unless compliance with those requirements is ensured by appropriate corrective action taken by the provider of the system within an appropriate deadline set by the notified body. The notified body shall give reasons for its decision.

Article 45. Appeal against decisions of notified bodies

Member States shall ensure that an appeal procedure against decisions of the notified bodies is available to parties having a legitimate interest in that decision.

Article 46. Information obligations of notified bodies

1. Notified bodies shall inform the notifying authority of the following:

(a) any Union technical documentation assessment certificates, any supplements to those certificates, quality management system approvals issued in accordance with the requirements of Annex VII;

(b) any refusal, restriction, suspension or withdrawal of a Union technical documentation assessment certificate or a quality management system approval issued in accordance with the requirements of Annex VII;

(c) any circumstances affecting the scope of or conditions for notification;

(d) any request for information which they have received from market surveillance authorities regarding conformity assessment activities;

(e) on request, conformity assessment activities performed within the scope of their notification and any other activity performed, including cross-border activities and subcontracting.

2. Each notified body shall inform the other notified bodies of:

(a) quality management system approvals which it has refused, suspended or withdrawn, and, upon request, of quality system approvals which it has issued;

(b) EU technical documentation assessment certificates or any supplements thereto which it has refused, withdrawn, suspended or otherwise restricted, and, upon request, of the certificates and/or supplements thereto which it has issued.

3. Each notified body shall provide the other notified bodies carrying out similar conformity assessment activities covering the same artificial intelligence technologies with relevant information on issues relating to negative and, on request, positive conformity assessment results.

Article 47. Derogation from conformity assessment procedure

1. By way of derogation from Article 43, any market surveillance authority may authorise the placing on the market or putting into service of specific high-risk AI systems within the territory of the Member State concerned, for exceptional reasons of public security or the protection of life and health of persons, environmental protection and the protection of key industrial and infrastructural assets. That authorisation shall be for a limited period of time, while the necessary conformity assessment procedures are being carried out, and shall terminate once those procedures have been completed. The completion of those procedures shall be undertaken without undue delay.

2. The authorisation referred to in paragraph 1 shall be issued only if the market surveillance authority concludes that the high-risk AI system complies with the requirements of Chapter 2 of this Title. The market surveillance authority shall inform the Commission and the other Member States of any authorisation issued pursuant to paragraph 1.

3. Where, within 15 calendar days of receipt of the information referred to in paragraph 2, no objection has been raised by either a Member State or the Commission in respect of an authorisation issued by a market surveillance authority of a Member State in accordance with paragraph 1, that authorisation shall be deemed justified.

4. Where, within 15 calendar days of receipt of the notification referred to in paragraph 2, objections are raised by a Member State against an authorisation issued by a market surveillance authority of another Member State, or where the Commission considers the authorisation to be contrary to Union law or the conclusion of the Member States regarding the compliance of the system as referred to in paragraph 2 to be unfounded, the Commission shall without delay enter into consultation with the relevant Member State; the operator(s) concerned shall be consulted and have the possibility to present their views. In view thereof, the Commission shall decide whether the authorisation is justified or not. The Commission shall address its decision to the Member State concerned and the relevant operator or operators.

5. If the authorisation is considered unjustified, this shall be withdrawn by the market surveillance authority of the Member State concerned.

6. By way of derogation from paragraphs 1 to 5, for high-risk AI systems intended to be used as safety components of devices, or which are themselves devices, covered by Regulation (EU) 2017/745 and Regulation (EU) 2017/746, Article 59 of Regulation (EU) 2017/745 and Article 54 of Regulation (EU) 2017/746 shall apply also with regard to the derogation from the conformity assessment of the compliance with the requirements set out in Chapter 2 of this Title.

Article 48. EU declaration of conformity

1. The provider shall draw up a written EU declaration of conformity for each AI system and keep it at the disposal of the national competent authorities for 10 years after the AI system has been placed on the market or put into service. The EU declaration of conformity shall identify the AI system for which it has been drawn up. A copy of the EU declaration of conformity shall be given to the relevant national competent authorities upon request.

2. The EU declaration of conformity shall state that the high-risk AI system in question meets the requirements set out in Chapter 2 of this Title. The EU declaration of conformity shall contain the information set out in Annex V and shall be translated into an official Union language or languages required by the Member State(s) in which the high-risk AI system is made available.

3. Where high-risk AI systems are subject to other Union harmonisation legislation which also requires an EU declaration of conformity, a single EU declaration of conformity shall be drawn up in respect of all Union legislations applicable to the high-risk AI system. The declaration shall contain all the information required for identification of the Union harmonisation legislation to which the declaration relates.

4. By drawing up the EU declaration of conformity, the provider shall assume responsibility for compliance with the requirements set out in Chapter 2 of this Title. The provider shall keep the EU declaration of conformity up-to-date as appropriate.

5. The Commission shall be empowered to adopt delegated acts in accordance with Article 73 for the purpose of updating the content of the EU declaration of conformity set out in Annex V in order to introduce elements that become necessary in light of technical progress.

Article 49. CE marking of conformity

1. The CE marking shall be affixed visibly, legibly and indelibly for high-risk AI systems. Where that is not possible or not warranted on account of the nature of the high-risk AI system, it shall be affixed to the packaging or to the accompanying documentation, as appropriate.

2. The CE marking referred to in paragraph 1 of this Article shall be subject to the general principles set out in Article 30 of Regulation (EC) No 765/2008.

3. Where applicable, the CE marking shall be followed by the identification number of the notified body responsible for the conformity assessment procedures set out in Article 43. The identification number shall also be indicated in any promotional material which mentions that the high-risk AI system fulfils the requirements for CE marking.

Article 50. Document retention

The provider shall, for a period ending 10 years after the AI system has been placed on the market or put into service, keep at the disposal of the national competent authorities:

(a) the technical documentation referred to in Article 11;

(b) the documentation concerning the quality management system referred to Article 17;

(c) the documentation concerning the changes approved by notified bodies where applicable;

(d) the decisions and other documents issued by the notified bodies where applicable;

(e) the EU declaration of conformity referred to in Article 48.

Article 51. Registration

Before placing on the market or putting into service a high-risk AI system referred to in Article 6(2), the provider or, where applicable, the authorised representative shall register that system in the EU database referred to in Article 60.

TITLE IV. TRANSPARENCY OBLIGATIONS FOR CERTAIN AI SYSTEMS

Article 52. Transparency obligations for certain AI systems

1. Providers shall ensure that AI systems intended to interact with natural persons are designed and developed in such a way that natural persons are informed that they are interacting with an AI system, unless this is obvious from the circumstances and the context of use. This obligation shall not apply to AI systems authorised by law to detect, prevent, investigate and prosecute criminal offences, unless those systems are available for the public to report a criminal offence.

2. Users of an emotion recognition system or a biometric categorisation system shall inform of the operation of the system the natural persons exposed thereto. This obligation shall not apply to AI systems used for biometric categorisation, which are permitted by law to detect, prevent and investigate criminal offences. 3. Users of an AI system that generates or manipulates image, audio or video content that appreciably resembles existing persons, objects, places or other entities or events and would falsely appear to a person to be authentic or truthful (‘deep fake’), shall disclose that the content has been artificially generated or manipulated. However, the first subparagraph shall not apply where the use is authorised by law to detect, prevent, investigate and prosecute criminal offences or it is necessary for the exercise of the right to freedom of expression and the right to freedom of the arts and sciences guaranteed in the Charter of Fundamental Rights of the EU, and subject to appropriate safeguards for the rights and freedoms of third parties.

4. Paragraphs 1, 2 and 3 shall not affect the requirements and obligations set out in Title III of this Regulation.

TITLE V. MEASURES IN SUPPORT OF INNOVATION

Article 53. AI regulatory sandboxes

1. AI regulatory sandboxes established by one or more Member States competent authorities or the European Data Protection Supervisor shall provide a controlled environment that facilitates the development, testing and validation of innovative AI systems for a limited time before their placement on the market or putting into service pursuant to a specific plan. This shall take place under the direct supervision and guidance by the competent authorities with a view to ensuring compliance with the requirements of this Regulation and, where relevant, other Union and Member States legislation supervised within the sandbox.

2. Member States shall ensure that to the extent the innovative AI systems involve the processing of personal data or otherwise fall under the supervisory remit of other national authorities or competent authorities providing or supporting access to data, the national data protection authorities and those other national authorities are associated to the operation of the AI regulatory sandbox.

3. The AI regulatory sandboxes shall not affect the supervisory and corrective powers of the competent authorities. Any significant risks to health and safety and fundamental rights identified during the development and testing of such systems shall result in immediate mitigation and, failing that, in the suspension of the development and testing process until such mitigation takes place.

4. Participants in the AI regulatory sandbox shall remain liable under applicable Union and Member States liability legislation for any harm inflicted on third parties as a result from the experimentation taking place in the sandbox.

5. Member States’ competent authorities that have established AI regulatory sandboxes shall coordinate their activities and cooperate within the framework of the European Artificial Intelligence Board. They shall submit annual reports to the Board and the Commission on the results from the implementation of those scheme, including good practices, lessons learnt and recommendations on their setup and, where relevant, on the application of this Regulation and other Union legislation supervised within the sandbox.

6. The modalities and the conditions of the operation of the AI regulatory sandboxes, including the eligibility criteria and the procedure for the application, selection, participation and exiting from the sandbox, and the rights and obligations of the participants shall be set out in implementing acts. Those implementing acts shall be adopted in accordance with the examination procedure referred to in Article 74(2).

Article 54. Further processing of personal data for developing certain AI systems in the public interest in the AI regulatory sandbox

1. In the AI regulatory sandbox personal data lawfully collected for other purposes shall be processed for the purposes of developing and testing certain innovative AI systems in the sandbox under the following conditions:

(a) the innovative AI systems shall be developed for safeguarding substantial public interest in one or more of the following areas:

(i) the prevention, investigation, detection or prosecution of criminal offences or the execution of criminal penalties, including the safeguarding against and the prevention of threats to public security, under the control and responsibility of the competent authorities. The processing shall be based on Member State or Union law;

(ii) public safety and public health, including disease prevention, control and treatment;

(iii) a high level of protection and improvement of the quality of the environment;

(b) the data processed are necessary for complying with one or more of the requirements referred to in Title III, Chapter 2 where those requirements cannot be effectively fulfilled by processing anonymised, synthetic or other non-personal data;

(c) there are effective monitoring mechanisms to identify if any high risks to the fundamental rights of the data subjects may arise during the sandbox experimentation as well as response mechanism to promptly mitigate those risks and, where necessary, stop the processing;

(d) any personal data to be processed in the context of the sandbox are in a functionally separate, isolated and protected data processing environment under the control of the participants and only authorised persons have access to that data;

(e) any personal data processed are not be transmitted, transferred or otherwise accessed by other parties;

(f) any processing of personal data in the context of the sandbox do not lead to measures or decisions affecting the data subjects;

(g) any personal data processed in the context of the sandbox are deleted once the participation in the sandbox has terminated or the personal data has reached the end of its retention period;

(h) the logs of the processing of personal data in the context of the sandbox are kept for the duration of the participation in the sandbox and 1 year after its termination, solely for the purpose of and only as long as necessary for fulfilling accountability and documentation obligations under this Article or other application Union or Member States legislation;

(i) complete and detailed description of the process and rationale behind the training, testing and validation of the AI system is kept together with the testing results as part of the technical documentation in Annex IV;

(j) a short summary of the AI project developed in the sandbox, its objectives and expected results published on the website of the competent authorities.

2. Paragraph 1 is without prejudice to Union or Member States legislation excluding processing for other purposes than those explicitly mentioned in that legislation.

Article 55. Measures for small-scale providers and users

1. Member States shall undertake the following actions:

(a) provide small-scale providers and start-ups with priority access to the AI regulatory sandboxes to the extent that they fulfil the eligibility conditions;

(b) organise specific awareness raising activities about the application of this Regulation tailored to the needs of the small-scale providers and users;

(c) where appropriate, establish a dedicated channel for communication with small-scale providers and user and other innovators to provide guidance and respond to queries about the implementation of this Regulation.

2. The specific interests and needs of the small-scale providers shall be taken into account when setting the fees for conformity assessment under Article 43, reducing those fees proportionately to their size and market size.

TITLE VI. GOVERNANCE

CHAPTER 1. EUROPEAN ARTIFICIAL INTELLIGENCE BOARD

Article 56. Establishment of the European Artificial Intelligence Board

1. A ‘European Artificial Intelligence Board’ (the ‘Board’) is established.

2. The Board shall provide advice and assistance to the Commission in order to:

(a) contribute to the effective cooperation of the national supervisory authorities and the Commission with regard to matters covered by this Regulation;

(b) coordinate and contribute to guidance and analysis by the Commission and the national supervisory authorities and other competent authorities on emerging issues across the internal market with regard to matters covered by this Regulation;

(c) assist the national supervisory authorities and the Commission in ensuring the consistent application of this Regulation.

Article 57. Structure of the Board

1. The Board shall be composed of the national supervisory authorities, who shall be represented by the head or equivalent high-level official of that authority, and the European Data Protection Supervisor. Other national authorities may be invited to the meetings, where the issues discussed are of relevance for them.

2. The Board shall adopt its rules of procedure by a simple majority of its members, following the consent of the Commission. The rules of procedure shall also contain the operational aspects related to the execution of the Board’s tasks as listed in Article 58. The Board may establish sub-groups as appropriate for the purpose of examining specific questions.

3. The Board shall be chaired by the Commission. The Commission shall convene the meetings and prepare the agenda in accordance with the tasks of the Board pursuant to this Regulation and with its rules of procedure. The Commission shall provide administrative and analytical support for the activities of the Board pursuant to this Regulation.

4. The Board may invite external experts and observers to attend its meetings and may hold exchanges with interested third parties to inform its activities to an appropriate extent. To that end the Commission may facilitate exchanges between the Board and other Union bodies, offices, agencies and advisory groups.

Article 58. Tasks of the Board

When providing advice and assistance to the Commission in the context of Article 56(2), the Board shall in particular:

(a) collect and share expertise and best practices among Member States;

(b) contribute to uniform administrative practices in the Member States, including for the functioning of regulatory sandboxes referred to in Article 53;

(c) issue opinions, recommendations or written contributions on matters related to the implementation of this Regulation, in particular

(i) on technical specifications or existing standards regarding the requirements set out in Title III, Chapter 2,

(ii) on the use of harmonised standards or common specifications referred to in Articles 40 and 41,

(iii) on the preparation of guidance documents, including the guidelines concerning the setting of administrative fines referred to in Article 71.

CHAPTER 2. NATIONAL COMPETENT AUTHORITIES

Article 59. Designation of national competent authorities

1. National competent authorities shall be established or designated by each Member State for the purpose of ensuring the application and implementation of this Regulation. National competent authorities shall be organised so as to safeguard the objectivity and impartiality of their activities and tasks.

2. Each Member State shall designate a national supervisory authority among the national competent authorities. The national supervisory authority shall act as notifying authority and market surveillance authority unless a Member State has organisational and administrative reasons to designate more than one authority.

3. Member States shall inform the Commission of their designation or designations and, where applicable, the reasons for designating more than one authority.

4. Member States shall ensure that national competent authorities are provided with adequate financial and human resources to fulfil their tasks under this Regulation. In particular, national competent authorities shall have a sufficient number of personnel permanently available whose competences and expertise shall include an in-depth understanding of artificial intelligence technologies, data and data computing, fundamental rights, health and safety risks and knowledge of existing standards and legal requirements.

5. Member States shall report to the Commission on an annual basis on the status of the financial and human resources of the national competent authorities with an assessment of their adequacy. The Commission shall transmit that information to the Board for discussion and possible recommendations.

6. The Commission shall facilitate the exchange of experience between national competent authorities.

7. National competent authorities may provide guidance and advice on the implementation of this Regulation, including to small-scale providers. Whenever national competent authorities intend to provide guidance and advice with regard to an AI system in areas covered by other Union legislation, the competent national authorities under that Union legislation shall be consulted, as appropriate. Member States may also establish one central contact point for communication with operators.

8. When Union institutions, agencies and bodies fall within the scope of this Regulation, the European Data Protection Supervisor shall act as the competent authority for their supervision.

TITLE VII. EU DATABASE FOR STAND-ALONE HIGH-RISK AI SYSTEMS

Article 60. EU database for stand-alone high-risk AI systems

1. The Commission shall, in collaboration with the Member States, set up and maintain a EU database containing information referred to in paragraph 2 concerning high-risk AI systems referred to in Article 6(2) which are registered in accordance with Article (51).

2. The data listed in Annex VIII shall be entered into the EU database by the providers. The Commission shall provide them with technical and administrative support.

3. Information contained in the EU database shall be accessible to the public.

4. The EU database shall contain personal data only insofar as necessary for collecting and processing information in accordance with this Regulation. That information shall include the names and contact details of natural persons who are responsible for registering the system and have the legal authority to represent the provider.

5. The Commission shall be the controller of the EU database. It shall also ensure to providers adequate technical and administrative support.

TITLE VIII. POST-MARKET MONITORING, INFORMATION SHARING, MARKET SURVEILLANCE

CHAPTER 1. POST-MARKET MONITORING

Article 61. Post-market monitoring by providers and post-market monitoring plan for high-risk AI systems

1. Providers shall establish and document a post-market monitoring system in a manner that is proportionate to the nature of the artificial intelligence technologies and the risks of the high-risk AI system.

2. The post-market monitoring system shall actively and systematically collect, document and analyse relevant data provided by users or collected through other sources on the performance of high-risk AI systems throughout their lifetime, and allow the provider to evaluate the continuous compliance of AI systems with the requirements set out in Title III, Chapter 2.

3. The post-market monitoring system shall be based on a post-market monitoring plan. The post-market monitoring plan shall be part of the technical documentation referred to in Annex IV. The Commission shall adopt an implementing act laying down detailed provisions establishing a template for the post-market monitoring plan and the list of elements to be included in the plan.

4. For high-risk AI systems covered by the legal acts referred to in Annex II, where a post-market monitoring system and plan is already established under that legislation, the elements described in paragraphs 1, 2 and 3 shall be integrated into that system and plan as appropriate.

The first subparagraph shall also apply to high-risk AI systems referred to in point 5(b) of Annex III placed on the market or put into service by credit institutions regulated by Directive 2013/36/EU.

CHAPTER 2. SHARING OF INFORMATION ON INCIDENTS AND MALFUNCTIONING

Article 62. Reporting of serious incidents and of malfunctioning

1. Providers of high-risk AI systems placed on the Union market shall report any serious incident or any malfunctioning of those systems which constitutes a breach of obligations under Union law intended to protect fundamental rights to the market surveillance authorities of the Member States where that incident or breach occurred.

Such notification shall be made immediately after the provider has established a causal link between the AI system and the incident or malfunctioning or the reasonable likelihood of such a link, and, in any event, not later than 15 days after the providers becomes aware of the serious incident or of the malfunctioning.

2. Upon receiving a notification related to a breach of obligations under Union law intended to protect fundamental rights, the market surveillance authority shall inform the national public authorities or bodies referred to in Article 64(3). The Commission shall develop dedicated guidance to facilitate compliance with the obligations set out in paragraph 1. That guidance shall be issued 12 months after the entry into force of this Regulation, at the latest.

3. For high-risk AI systems referred to in point 5(b) of Annex III which are placed on the market or put into service by providers that are credit institutions regulated by Directive 2013/36/EU and for high-risk AI systems which are safety components of devices, or are themselves devices, covered by Regulation (EU) 2017/745 and Regulation (EU) 2017/746, the notification of serious incidents or malfunctioning shall be limited to those that that constitute a breach of obligations under Union law intended to protect fundamental rights.

CHAPTER 3. ENFORCEMENT

Article 63. Market surveillance and control of AI systems in the Union market

1. Regulation (EU) 2019/1020 shall apply to AI systems covered by this Regulation. However, for the purpose of the effective enforcement of this Regulation:

(a) any reference to an economic operator under Regulation (EU) 2019/1020 shall be understood as including all operators identified in Title III, Chapter 3 of this Regulation;

(b) any reference to a product under Regulation (EU) 2019/1020 shall be understood as including all AI systems falling within the scope of this Regulation.

2. The national supervisory authority shall report to the Commission on a regular basis the outcomes of relevant market surveillance activities. The national supervisory authority shall report, without delay, to the Commission and relevant national competition authorities any information identified in the course of market surveillance activities that may be of potential interest for the application of Union law on competition rules.

3. For high-risk AI systems, related to products to which legal acts listed in Annex II, section A apply, the market surveillance authority for the purposes of this Regulation shall be the authority responsible for market surveillance activities designated under those legal acts.

4. For AI systems placed on the market, put into service or used by financial institutions regulated by Union legislation on financial services, the market surveillance authority for the purposes of this Regulation shall be the relevant authority responsible for the financial supervision of those institutions under that legislation.

5. For AI systems listed in point 1(a) in so far as the systems are used for law enforcement purposes, points 6 and 7 of Annex III, Member States shall designate as market surveillance authorities for the purposes of this Regulation either the competent data protection supervisory authorities under Directive (EU) 2016/680, or Regulation 2016/679 or the national competent authorities supervising the activities of the law enforcement, immigration or asylum authorities putting into service or using those systems.

6. Where Union institutions, agencies and bodies fall within the scope of this Regulation, the European Data Protection Supervisor shall act as their market surveillance authority.

7. Member States shall facilitate the coordination between market surveillance authorities designated under this Regulation and other relevant national authorities or bodies which supervise the application of Union harmonisation legislation listed in Annex II or other Union legislation that might be relevant for the high-risk AI systems referred to in Annex III.

Article 64. Access to data and documentation

1. Access to data and documentation in the context of their activities, the market surveillance authorities shall be granted full access to the training, validation and testing datasets used by the provider, including through application programming interfaces (‘API’) or other appropriate technical means and tools enabling remote access.

2. Where necessary to assess the conformity of the high-risk AI system with the requirements set out in Title III, Chapter 2 and upon a reasoned request, the market surveillance authorities shall be granted access to the source code of the AI system.

3. National public authorities or bodies which supervise or enforce the respect of obligations under Union law protecting fundamental rights in relation to the use of high-risk AI systems referred to in Annex III shall have the power to request and access any documentation created or maintained under this Regulation when access to that documentation is necessary for the fulfilment of the competences under their mandate within the limits of their jurisdiction. The relevant public authority or body shall inform the market surveillance authority of the Member State concerned of any such request.

4. By 3 months after the entering into force of this Regulation, each Member State shall identify the public authorities or bodies referred to in paragraph 3 and make a list publicly available on the website of the national supervisory authority. Member States shall notify the list to the Commission and all other Member States and keep the list up to date.

5. Where the documentation referred to in paragraph 3 is insufficient to ascertain whether a breach of obligations under Union law intended to protect fundamental rights has occurred, the public authority or body referred to paragraph 3 may make a reasoned request to the market surveillance authority to organise testing of the high-risk AI system through technical means. The market surveillance authority shall organise the testing with the close involvement of the requesting public authority or body within reasonable time following the request.

6. Any information and documentation obtained by the national public authorities or bodies referred to in paragraph 3 pursuant to the provisions of this Article shall be treated in compliance with the confidentiality obligations set out in Article 70.

Article 65. Procedure for dealing with AI systems presenting a risk at national level

1. AI systems presenting a risk shall be understood as a product presenting a risk defined in Article 3, point 19 of Regulation (EU) 2019/1020 insofar as risks to the health or safety or to the protection of fundamental rights of persons are concerned.

2. Where the market surveillance authority of a Member State has sufficient reasons to consider that an AI system presents a risk as referred to in paragraph 1, they shall carry out an evaluation of the AI system concerned in respect of its compliance with all the requirements and obligations laid down in this Regulation. When risks to the protection of fundamental rights are present, the market surveillance authority shall also inform the relevant national public authorities or bodies referred to in Article 64(3). The relevant operators shall cooperate as necessary with the market surveillance authorities and the other national public authorities or bodies referred to in Article 64(3).

Where, in the course of that evaluation, the market surveillance authority finds that the AI system does not comply with the requirements and obligations laid down in this Regulation, it shall without delay require the relevant operator to take all appropriate corrective actions to bring the AI system into compliance, to withdraw the AI system from the market, or to recall it within a reasonable period, commensurate with the nature of the risk, as it may prescribe.

The market surveillance authority shall inform the relevant notified body accordingly. Article 18 of Regulation (EU) 2019/1020 shall apply to the measures referred to in the second subparagraph.

3. Where the market surveillance authority considers that non-compliance is not restricted to its national territory, it shall inform the Commission and the other Member States of the results of the evaluation and of the actions which it has required the operator to take.

4. The operator shall ensure that all appropriate corrective action is taken in respect of all the AI systems concerned that it has made available on the market throughout the Union.

5. Where the operator of an AI system does not take adequate corrective action within the period referred to in paragraph 2, the market surveillance authority shall take all appropriate provisional measures to prohibit or restrict the AI system’s being made available on its national market, to withdraw the product from that market or to recall it. That authority shall inform the Commission and the other Member States, without delay, of those measures.

6. The information referred to in paragraph 5 shall include all available details, in particular the data necessary for the identification of the non-compliant AI system, the origin of the AI system, the nature of the non-compliance alleged and the risk involved, the nature and duration of the national measures taken and the arguments put forward by the relevant operator. In particular, the market surveillance authorities shall indicate whether the non-compliance is due to one or more of the following:

(a) a failure of the AI system to meet requirements set out in Title III, Chapter 2;

(b) shortcomings in the harmonised standards or common specifications referred to in Articles 40 and 41 conferring a presumption of conformity.

7. The market surveillance authorities of the Member States other than the market surveillance authority of the Member State initiating the procedure shall without delay inform the Commission and the other Member States of any measures adopted and of any additional information at their disposal relating to the non-compliance of the AI system concerned, and, in the event of disagreement with the notified national measure, of their objections.

8. Where, within three months of receipt of the information referred to in paragraph 5, no objection has been raised by either a Member State or the Commission in respect of a provisional measure taken by a Member State, that measure shall be deemed justified. This is without prejudice to the procedural rights of the concerned operator in accordance with Article 18 of Regulation (EU) 2019/1020.

9. The market surveillance authorities of all Member States shall ensure that appropriate restrictive measures are taken in respect of the product concerned, such as withdrawal of the product from their market, without delay.

Article 66. Union safeguard procedure

1. Where, within three months of receipt of the notification referred to in Article 65(5), objections are raised by a Member State against a measure taken by another Member State, or where the Commission considers the measure to be contrary to Union law, the Commission shall without delay enter into consultation with the relevant Member State and operator or operators and shall evaluate the national measure. On the basis of the results of that evaluation, the Commission shall decide whether the national measure is justified or not within 9 months from the notification referred to in Article 65(5) and notify such decision to the Member State concerned.

2. If the national measure is considered justified, all Member States shall take the measures necessary to ensure that the non-compliant AI system is withdrawn from their market, and shall inform the Commission accordingly. If the national measure is considered unjustified, the Member State concerned shall withdraw the measure.

3. Where the national measure is considered justified and the non-compliance of the AI system is attributed to shortcomings in the harmonised standards or common specifications referred to in Articles 40 and 41 of this Regulation, the Commission shall apply the procedure provided for in Article 11 of Regulation (EU) No 1025/2012.

Article 67. Compliant AI systems which present a risk

1. Where, having performed an evaluation under Article 65, the market surveillance authority of a Member State finds that although an AI system is in compliance with this Regulation, it presents a risk to the health or safety of persons, to the compliance with obligations under Union or national law intended to protect fundamental rights or to other aspects of public interest protection, it shall require the relevant operator to take all appropriate measures to ensure that the AI system concerned, when placed on the market or put into service, no longer presents that risk, to withdraw the AI system from the market or to recall it within a reasonable period, commensurate with the nature of the risk, as it may prescribe.

2. The provider or other relevant operators shall ensure that corrective action is taken in respect of all the AI systems concerned that they have made available on the market throughout the Union within the timeline prescribed by the market surveillance authority of the Member State referred to in paragraph 1.

3. The Member State shall immediately inform the Commission and the other Member States. That information shall include all available details, in particular the data necessary for the identification of the AI system concerned, the origin and the supply chain of the AI system, the nature of the risk involved and the nature and duration of the national measures taken.

4. The Commission shall without delay enter into consultation with the Member States and the relevant operator and shall evaluate the national measures taken. On the basis of the results of that evaluation, the Commission shall decide whether the measure is justified or not and, where necessary, propose appropriate measures.

5. The Commission shall address its decision to the Member States.

Article 68. Formal non-compliance

1. Where the market surveillance authority of a Member State makes one of the following findings, it shall require the relevant provider to put an end to the non-compliance concerned:

(a) the conformity marking has been affixed in violation of Article 49;

(b) the conformity marking has not been affixed;

(c) the EU declaration of conformity has not been drawn up;

(d) the EU declaration of conformity has not been drawn up correctly;

(e) the identification number of the notified body, which is involved in the conformity assessment procedure, where applicable, has not been affixed;

2. Where the non-compliance referred to in paragraph 1 persists, the Member State concerned shall take all appropriate measures to restrict or prohibit the high-risk AI system being made available on the market or ensure that it is recalled or withdrawn from the market.

TITLE IX. CODES OF CONDUCT

Article 69. Codes of conduct

1. The Commission and the Member States shall encourage and facilitate the drawing up of codes of conduct intended to foster the voluntary application to AI systems other than high-risk AI systems of the requirements set out in Title III, Chapter 2 on the basis of technical specifications and solutions that are appropriate means of ensuring compliance with such requirements in light of the intended purpose of the systems.

2. The Commission and the Board shall encourage and facilitate the drawing up of codes of conduct intended to foster the voluntary application to AI systems of requirements related for example to environmental sustainability, accessibility for persons with a disability, stakeholders participation in the design and development of the AI systems and diversity of development teams on the basis of clear objectives and key performance indicators to measure the achievement of those objectives.

3. Codes of conduct may be drawn up by individual providers of AI systems or by organisations representing them or by both, including with the involvement of users and any interested stakeholders and their representative organisations. Codes of conduct may cover one or more AI systems taking into account the similarity of the intended purpose of the relevant systems.

4. The Commission and the Board shall take into account the specific interests and needs of the small-scale providers and start-ups when encouraging and facilitating the drawing up of codes of conduct.

TITLE X. CONFIDENTIALITY AND PENALTIES

Article 70. Confidentiality

1. National competent authorities and notified bodies involved in the application of this Regulation shall respect the confidentiality of information and data obtained in carrying out their tasks and activities in such a manner as to protect, in particular:

(a) intellectual property rights, and confidential business information or trade secrets of a natural or legal person, including source code, except the cases referred to in Article 5 of Directive 2016/943 on the protection of undisclosed know-how and business information (trade secrets) against their unlawful acquisition, use and disclosure apply.

(b) the effective implementation of this Regulation, in particular for the purpose of inspections, investigations or audits;(c) public and national security interests;

(c) integrity of criminal or administrative proceedings.

2. Without prejudice to paragraph 1, information exchanged on a confidential basis between the national competent authorities and between national competent authorities and the Commission shall not be disclosed without the prior consultation of the originating national competent authority and the user when high-risk AI systems referred to in points 1, 6 and 7 of Annex III are used by law enforcement, immigration or asylum authorities, when such disclosure would jeopardise public and national security interests.

When the law enforcement, immigration or asylum authorities are providers of high-risk AI systems referred to in points 1, 6 and 7 of Annex III, the technical documentation referred to in Annex IV shall remain within the premises of those authorities. Those authorities shall ensure that the market surveillance authorities referred to in Article 63(5) and (6), as applicable, can, upon request, immediately access the documentation or obtain a copy thereof. Only staff of the market surveillance authority holding the appropriate level of security clearance shall be allowed to access that documentation or any copy thereof.

3. Paragraphs 1 and 2 shall not affect the rights and obligations of the Commission, Member States and notified bodies with regard to the exchange of information and the dissemination of warnings, nor the obligations of the parties concerned to provide information under criminal law of the Member States.

4. The Commission and Member States may exchange, where necessary, confidential information with regulatory authorities of third countries with which they have concluded bilateral or multilateral confidentiality arrangements guaranteeing an adequate level of confidentiality.

Article 71. Penalties

1. In compliance with the terms and conditions laid down in this Regulation, Member States shall lay down the rules on penalties, including administrative fines, applicable to infringements of this Regulation and shall take all measures necessary to ensure that they are properly and effectively implemented. The penalties provided for shall be effective, proportionate, and dissuasive. They shall take into particular account the interests of small-scale providers and start-up and their economic viability.

2. The Member States shall notify the Commission of those rules and of those measures and shall notify it, without delay, of any subsequent amendment affecting them.

3. The following infringements shall be subject to administrative fines of up to 30 000 000 EUR or, if the offender is company, up to 6 % of its total worldwide annual turnover for the preceding financial year, whichever is higher:

(a) non-compliance with the prohibition of the artificial intelligence practices referred to in Article 5;

(b) non-compliance of the AI system with the requirements laid down in Article 10.

4. The non-compliance of the AI system with any requirements or obligations under this Regulation, other than those laid down in Articles 5 and 10, shall be subject to administrative fines of up to 20 000 000 EUR or, if the offender is a company, up to 4 % of its total worldwide annual turnover for the preceding financial year, whichever is higher.

5. The supply of incorrect, incomplete or misleading information to notified bodies and national competent authorities in reply to a request shall be subject to administrative fines of up to 10 000 000 EUR or, if the offender is a company, up to 2 % of its total worldwide annual turnover for the preceding financial year, whichever is higher.

6. When deciding on the amount of the administrative fine in each individual case, all relevant circumstances of the specific situation shall be taken into account and due regard shall be given to the following:

(a) the nature, gravity and duration of the infringement and of its consequences;

(b) whether administrative fines have been already applied by other market surveillance authorities to the same operator for the same infringement.

(c) the size and market share of the operator committing the infringement;

7. Each Member State shall lay down rules on whether and to what extent administrative fines may be imposed on public authorities and bodies established in that Member State.

8. Depending on the legal system of the Member States, the rules on administrative fines may be applied in such a manner that the fines are imposed by competent national courts of other bodies as applicable in those Member States. The application of such rules in those Member States shall have an equivalent effect.

Article 72. Administrative fines on Union institutions, agencies and bodies

1. The European Data Protection Supervisor may impose administrative fines on Union institutions, agencies and bodies falling within the scope of this Regulation. When deciding whether to impose an administrative fine and deciding on the amount of the administrative fine in each individual case, all relevant circumstances of the specific situation shall be taken into account and due regard shall be given to the following:

(a) the nature, gravity and duration of the infringement and of its consequences;

(b) the cooperation with the European Data Protection Supervisor in order to remedy the infringement and mitigate the possible adverse effects of the infringement, including compliance with any of the measures previously ordered by the European Data Protection Supervisor against the Union institution or agency or body concerned with regard to the same subject matter;

(c) any similar previous infringements by the Union institution, agency or body;

2. The following infringements shall be subject to administrative fines of up to 500 000 EUR:

(a) non-compliance with the prohibition of the artificial intelligence practices referred to in Article 5;

(b) non-compliance of the AI system with the requirements laid down in Article 10.

3. The non-compliance of the AI system with any requirements or obligations under this Regulation, other than those laid down in Articles 5 and 10, shall be subject to administrative fines of up to 250 000 EUR.

4. Before taking decisions pursuant to this Article, the European Data Protection Supervisor shall give the Union institution, agency or body which is the subject of the proceedings conducted by the European Data Protection Supervisor the opportunity of being heard on the matter regarding the possible infringement. The European Data Protection Supervisor shall base his or her decisions only on elements and circumstances on which the parties concerned have been able to comment. Complainants, if any, shall be associated closely with the proceedings.

5. The rights of defense of the parties concerned shall be fully respected in the proceedings. They shall be entitled to have access to the European Data Protection Supervisor’s file, subject to the legitimate interest of individuals or undertakings in the protection of their personal data or business secrets.

6. Funds collected by imposition of fines in this Article shall be the income of the general budget of the Union.

TITLE XI. DELEGATION OF POWER AND COMMITTEE PROCEDURE

Article 73. Exercise of the delegation

1. The power to adopt delegated acts is conferred on the Commission subject to the conditions laid down in this Article.

2. The delegation of power referred to in Article 4, Article 7(1), Article 11(3), Article 43(5) and (6) and Article 48(5) shall be conferred on the Commission for an indeterminate period of time from [entering into force of the Regulation].

3. The delegation of power referred to in Article 4, Article 7(1), Article 11(3), Article 43(5) and (6) and Article 48(5) may be revoked at any time by the European Parliament or by the Council. A decision of revocation shall put an end to the delegation of power specified in that decision. It shall take effect the day following that of its publication in the Official Journal of the European Union or at a later date specified therein. It shall not affect the validity of any delegated acts already in force.

4. As soon as it adopts a delegated act, the Commission shall notify it simultaneously to the European Parliament and to the Council.

5. Any delegated act adopted pursuant to Article 4, Article 7(1), Article 11(3), Article 43(5) and (6) and Article 48(5) shall enter into force only if no objection has been expressed by either the European Parliament or the Council within a period of three months of notification of that act to the European Parliament and the Council or if, before the expiry of that period, the European Parliament and the Council have both informed the Commission that they will not object. That period shall be extended by three months at the initiative of the European Parliament or of the Council.

Article 74. Committee procedure

1. The Commission shall be assisted by a committee. That committee shall be a committee within the meaning of Regulation (EU) nº 182/2011.

2. Where reference is made to this paragraph, Article 5 of Regulation (EU) nº 182/2011 shall apply.

TITLE XII. FINAL PROVISIONS

Article 75. Amendment to Regulation (EC) nº 300/2008

In Article 4(3) of Regulation (EC) nº 300/2008, the following subparagraph is added:

“When adopting detailed measures related to technical specifications and procedures for approval and use of security equipment concerning Artificial Intelligence systems in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence] of the European Parliament and of the Council*, the requirements set out in Chapter 2, Title III of that Regulation shall be taken into account.”

——————————————————————————

* Regulation (EU) YYY/XX [on Artificial Intelligence] (OJ …).”

——————————————————————————

Article 76. Amendment to Regulation (EU) nº 167/2013

In Article 17(5) of Regulation (EU) No 167/2013, the following subparagraph is added:

“When adopting delegated acts pursuant to the first subparagraph concerning artificial intelligence systems which are safety components in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence] of the European Parliament and of the Council*, the requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.

——————————————————————————

* Regulation (EU) YYY/XX [on Artificial Intelligence] (OJ …).”

——————————————————————————

Article 77. Amendment to Regulation (EU) nº 168/2013

In Article 22(5) of Regulation (EU) No 168/2013, the following subparagraph is added:

“When adopting delegated acts pursuant to the first subparagraph concerning Artificial Intelligence systems which are safety components in the meaning of Regulation (EU) YYY/XX on [Artificial Intelligence] of the European Parliament and of the Council*, the requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.

——————————————————————————-

* Regulation (EU) YYY/XX [on Artificial Intelligence] (OJ …).”

——————————————————————————-

Article 78. Amendment to Directive 2014/90/EU

In Article 8 of Directive 2014/90/EU, the following paragraph is added:

“4. For Artificial Intelligence systems which are safety components in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence] of the European Parliament and of the Council*, when carrying out its activities pursuant to paragraph 1 and when adopting technical specifications and testing standards in accordance with paragraphs 2 and 3, the Commission shall take into account the requirements set out in Title III, Chapter 2 of that Regulation.

——————————————————————————-

* Regulation (EU) YYY/XX [on Artificial Intelligence] (OJ …).”.

Article 79. Amendment to Directive (EU) 2016/797

In Article 5 of Directive (EU) 2016/797, the following paragraph is added:

12. When adopting delegated acts pursuant to paragraph 1 and implementing acts pursuant to paragraph 11 concerning Artificial Intelligence systems which are safety components in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence] of the European Parliament and of the Council*, the requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.

—————————————————————————–

* Regulation (EU) YYY/XX [on Artificial Intelligence] (OJ …).”.

Article 80. Amendment to Regulation (EU) 2018/858

In Article 5 of Regulation (EU) 2018/858 the following paragraph is added:

“4. When adopting delegated acts pursuant to paragraph 3 concerning Artificial Intelligence systems which are safety components in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence] of the European Parliament and of the Council *, the requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.

—————————————————————————–

* Regulation (EU) YYY/XX [on Artificial Intelligence] (OJ …).”.

Article 81 Amendment to Regulation (EU) 2018/1139

Regulation (EU) 2018/1139 is amended as follows:

(1) In Article 17, the following paragraph is added:

“3. Without prejudice to paragraph 2, when adopting implementing acts pursuant to paragraph 1 concerning Artificial Intelligence systems which are safety components in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence] of the European Parliament and of the Council*, the requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.

——————————————————————————

* Regulation (EU) YYY/XX [on Artificial Intelligence] (OJ …).”

(2) In Article 19, the following paragraph is added:

“4. When adopting delegated acts pursuant to paragraphs 1 and 2 concerning Artificial Intelligence systems which are safety components in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence], the requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.”

(3) In Article 43, the following paragraph is added:

“4. When adopting implementing acts pursuant to paragraph 1 concerning Artificial Intelligence systems which are safety components in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence], the requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.”

(4) In Article 47, the following paragraph is added:

“3. When adopting delegated acts pursuant to paragraphs 1 and 2 concerning Artificial Intelligence systems which are safety components in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence], the requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.”

(5) In Article 57, the following paragraph is added:

“When adopting those implementing acts concerning Artificial Intelligence systems which are safety components in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence], the requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.”

(6) In Article 58, the following paragraph is added:

“3. When adopting delegated acts pursuant to paragraphs 1 and 2 concerning Artificial Intelligence systems which are safety components in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence] , the requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.”.

Article 82. Amendment to Regulation (EU) 2019/2144

In Article 11 of Regulation (EU) 2019/2144, the following paragraph is added:

“3. When adopting the implementing acts pursuant to paragraph 2, concerning artificial intelligence systems which are safety components in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence] of the European Parliament and of the Council*, the requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.

——————————————————————————–

* Regulation (EU) YYY/XX [on Artificial Intelligence] (OJ …).”.

——————————————————————————-

Article 83. AI systems already placed on the market or put into service

1. This Regulation shall not apply to the AI systems which are components of the large-scale IT systems established by the legal acts listed in Annex IX that have been placed on the market or put into service before [12 months after the date of application of this Regulation referred to in Article 85(2)], unless the replacement or amendment of those legal acts leads to a significant change in the design or intended purpose of the AI system or AI systems concerned.

The requirements laid down in this Regulation shall be taken into account, where applicable, in the evaluation of each large-scale IT systems established by the legal acts listed in Annex IX to be undertaken as provided for in those respective acts.

2. This Regulation shall apply to the high-risk AI systems, other than the ones referred to in paragraph 1, that have been placed on the market or put into service before [date of application of this Regulation referred to in Article 85(2)], only if, from that date, those systems are subject to significant changes in their design or intended purpose.

Article 84. Evaluation and review

1. The Commission shall assess the need for amendment of the list in Annex III once a year following the entry into force of this Regulation.

2. By [three years after the date of application of this Regulation referred to in Article 85(2)] and every four years thereafter, the Commission shall submit a report on the evaluation and review of this Regulation to the European Parliament and to the Council. The reports shall be made public.

3. The reports referred to in paragraph 2 shall devote specific attention to the following:

(a) the status of the financial and human resources of the national competent authorities in order to effectively perform the tasks assigned to them under this Regulation;

(b) the state of penalties, and notably administrative fines as referred to in Article 71(1), applied by Member States to infringements of the provisions of this Regulation.

4. Within [three years after the date of application of this Regulation referred to in Article 85(2)] and every four years thereafter, the Commission shall evaluate the impact and effectiveness of codes of conduct to foster the application of the requirements set out in Title III, Chapter 2 and possibly other additional requirements for AI systems other than high-risk AI systems.

5. For the purpose of paragraphs 1 to 4 the Board, the Member States and national competent authorities shall provide the Commission with information on its request.

6. In carrying out the evaluations and reviews referred to in paragraphs 1 to 4 the Commission shall take into account the positions and findings of the Board, of the European Parliament, of the Council, and of other relevant bodies or sources.

7. The Commission shall, if necessary, submit appropriate proposals to amend this Regulation, in particular taking into account developments in technology and in the light of the state of progress in the information society.

Article 85 Entry into force and application

1. This Regulation shall enter into force on the twentieth day following that of its publication in the Official Journal of the European Union.

2. This Regulation shall apply from [24 months following the entering into force of the Regulation].

3. By way of derogation from paragraph 2:

(a) Title III, Chapter 4 and Title VI shall apply from [three months following the entry into force of this Regulation];

(b) Article 71 shall apply from [twelve months following the entry into force of this Regulation].

This Regulation shall be binding in its entirety and directly applicable in all Member States.

Done at Brussels,

For the European Parliament For the Council

The President The President

LEGISLATIVE FINANCIAL STATEMENT

1. FRAMEWORK OF THE PROPOSAL/INITIATIVE

1.1. Title of the proposal/initiative

1.2. Policy area(s) concerned

1.3. The proposal/initiative relates to:

1.4. Objective(s)

1.4.1. General objective(s)

1.4.2. Specific objective(s)

1.4.3. Expected result(s) and impact

1.4.4. Indicators of performance

1.5. Grounds for the proposal/initiative

1.5.1. Requirement(s) to be met in the short or long term including a detailed timeline for roll-out of the implementation of the initiative

1.5.2. Added value of Union involvement (it may result from different factors, e.g. coordination gains, legal certainty, greater effectiveness or complementarities). For the purposes of this point ‘added value of Union involvement’ is the value resulting from Union intervention which is additional to the value that would have been otherwise created by Member States alone

1.5.3. Lessons learned from similar experiences in the past

1.5.4. Compatibility with the Multiannual Financial Framework and possible synergies with other appropriate instruments

1.5.5 Assessment of the different available financing options, including scope for redeployment

1.6. Duration and financial impact of the proposal/initiative

1.7. Management mode(s) planned

2. MANAGEMENT MEASURES

2.1. Monitoring and reporting rules

2.2. Management and control system

2.2.1. Justification of the management mode(s), the funding implementation mechanism(s), the payment modalities and the control strategy proposed

2.2.2. Information concerning the risks identified and the internal control system(s) set up to mitigate them

2.2.3. Estimation and justification of the cost-effectiveness of the controls (ratio of “control costs ÷ value of the related funds managed”), and assessment of the expected levels of risk of error (at payment & at closure)

2.3. Measures to prevent fraud and irregularities

3. ESTIMATED FINANCIAL IMPACT OF THE PROPOSAL/INITIATIVE

3.1. Heading(s) of the multiannual financial framework and expenditure budget line(s) affected

3.2. Estimated financial impact of the proposal on appropriations

3.2.1. Summary of estimated impact on operational appropriations

3.2.2. Estimated output funded with operational appropriations

3.2.3. Summary of estimated impact on administrative appropriations

3.2.4. Compatibility with the current multiannual financial framework

3.2.5. Third-party contributions

3.3. Estimated impact on revenue

LEGISLATIVE FINANCIAL STATEMENT

1. FRAMEWORK OF THE PROPOSAL/INITIATIVE

1.1. Title of the proposal/initiative

Regulation of the European Parliament and of the Council Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts

1.2. Policy area(s) concerned

Communications Networks, Content and Technology;

Internal Market, Industry, Entrepreneurship and SMEs;

The budgetary impact concerns the new tasks entrusted with the Commission, including the support to the EU AI Board;

Activity: Shaping Europe’s digital future.

1.3. The proposal/initiative relates to:

X a new action

* a new action following a pilot project/preparatory action (64)

* the extension of an existing action

* an action redirected towards a new action

1.4. Objective(s)

1.4.1. General objective(s)

The general objective of the intervention is to ensure the proper functioning of the single market by creating the conditions for the development and use of trustworthy artificial intelligence in the Union.

1.4.2. Specific objective(s)

Specific objective nº 1

To set requirements specific to AI systems and obligations on all value chain participants in order to ensure that AI systems placed on the market and used are safe and respect existing law on fundamental rights and Union values;

Specific objective nº 2

To ensure legal certainty to facilitate investment and innovation in AI by making it clear what essential requirements, obligations, as well as conformity and compliance procedures must be followed to place or use an AI system in the Union market;

Specific objective nº 3

To enhance governance and effective enforcement of existing law on fundamental rights and safety requirements applicable to AI systems by providing new powers, resources and clear rules for relevant authorities on conformity assessment and ex post monitoring procedures and the division of governance and supervision tasks between national and EU levels;

Specific objective nº 4

To facilitate the development of a single market for lawful, safe and trustworthy AI applications and prevent market fragmentation by taking EU action to set minimum requirement for AI systems to be placed and used in the Union market in compliance with existing law on fundamental rights and safety.

1.4.3. Expected result(s) and impact

Specify the effects which the proposal/initiative should have on the beneficiaries/groups targeted.

AI suppliers should benefit from a minimal but clear set of requirements, creating legal certainty and ensuring access to the entire single market.

AI users should benefit from legal certainty that the high-risk AI systems they buy comply with European laws and values.

Consumers should benefit by reducing the risk of violations of their safety or fundamental rights.

1.4.4. Indicators of performance

Specify the indicators for monitoring implementation of the proposal/initiative.

Indicator 1

Number of serious incidents or AI performances which constitute a serious incident or a breach of fundamental rights obligations (semi-annual) by fields of applications and calculated a) in absolute terms, b) as share of applications deployed and c) as share of citizens concerned.

Indicator 2

a) Total AI investment in the EU (annual)

b) Total AI investment by Member State (annual)

c) Share of companies using AI (annual)

d) Share of SMEs using AI (annual)

a) and b) will be calculated based on official sources and benchmarked against private estimates

c) and d) will be collected by regular company surveys

1.5. Grounds for the proposal/initiative

1.5.1. Requirement(s) to be met in the short or long term including a detailed timeline for roll-out of the implementation of the initiative

The Regulation should be fully applicable one year and a half after its adoption. However, elements of the governance structure should be in place before then. In particular, Member States shall have appointed existing authorities and/or established new authorities performing the tasks set out in the legislation earlier, and the EU AI Board should be set-up and effective. By the time of applicability, the European database of AI systems should be fully operative. In parallel to the adoption process, it is therefore necessary to develop the database, so that its development has come to an end when the regulation enters into force.

1.5.2. Added value of Union involvement (it may result from different factors, e.g. coordination gains, legal certainty, greater effectiveness or complementarities). For the purposes of this point ‘added value of Union involvement’ is the value resulting from Union intervention which is additional to the value that would have been otherwise created by Member States alone.

An emerging patchy framework of potentially divergent national rules will hamper the seamless provision of AI systems across the EU and is ineffective in ensuring the safety and protection of fundamental rights and Union values across the different Member States. A common EU legislative action on AI could boost the internal market and has great potential to provide European industry with a competitive edge at the global scene and economies of scale that cannot be achieved by individual Member States alone.

1.5.3. Lessons learned from similar experiences in the past

The E-commerce Directive 2000/31/EC provides the core framework for the functioning of the single market and the supervision of digital services and sets a basic structure for a general cooperation mechanism among Member States, covering in principle all requirements applicable to digital services. The evaluation of the Directive pointed to shortcomings in several aspects of this cooperation mechanism, including important procedural aspects such as the lack of clear timeframes for response from Member States coupled with a general lack of responsiveness to requests from their counterparts. This has led over the years to a lack of trust between Member States in addressing concerns about providers offering digital services cross-border. The evaluation of the Directive showed the need to define a differentiated set of rules and requirements at European level. For this reason, the implementation of the specific obligations laid down in this Regulation would require a specific cooperation mechanism at EU level, with a governance structure ensuring coordination of specific responsible bodies at EU level.

1.5.4. Compatibility with the Multiannual Financial Framework and possible synergies with other appropriate instruments

The Regulation Laying Down Harmonised Rules on Artificial Intelligence and Amending Certain Union Legislative Acts defines a new common framework of requirements applicable to AI systems, which goes well beyond the framework provided by existing legislation. For this reason, a new national and European regulatory and coordination function needs to be established with this proposal.

As regards possible synergies with other appropriate instruments, the role of notifying authorities at national level can be performed by national authorities fulfilling similar functions sunder other EU regulations.

Moreover, by increasing trust in AI and thus encouraging investment in development and adoption of AI, it complements Digital Europe, for which promoting the diffusion of AI is one of five priorities.

1.5.5. Assessment of the different available financing options, including scope for redeployment

The staff will be redeployed. The other costs will be supported from the DEP. envelope, given that the objective of this regulation – ensuring trustworthy AI – contributes directly to one key objective of Digital Europe – accelerating AI development and deployment in Europe.

1.6. Duration and financial impact of the proposal/initiative limited duration

– in effect from [DD/MM]YYYY to [DD/MM]YYYY

– Financial impact from YYYY to YYYY for commitment appropriations and from YYYY to YYYY for payment appropriations.

X unlimited duration

– Implementation with a start-up period from one/two (tbc) year,

– followed by full-scale operation.

1.7. Management mode(s) planned (65)

X Direct management by the Commission

–  by its departments, including by its staff in the Union delegations;

–  by the executive agencies

Shared management with the Member States

Indirect management by entrusting budget implementation tasks to:

– third countries or the bodies they have designated;

– international organisations and their agencies (to be specified);

– the EIB and the European Investment Fund;

– bodies referred to in Articles 70 and 71 of the Financial Regulation;

– public law bodies;

– bodies governed by private law with a public service mission to the extent that they provide adequate financial guarantees;

– bodies governed by the private law of a Member State that are entrusted with the implementation of a public-private partnership and that provide adequate financial guarantees;

– persons entrusted with the implementation of specific actions in the CFSP pursuant to Title V of the TEU, and identified in the relevant basic act.

– If more than one management mode is indicated, please provide details in the ‘Comments’ section.

Comments

2. MANAGEMENT MEASURES

2.1. Monitoring and reporting rules

Specify frequency and conditions.

The Regulation will be reviewed and evaluated five years from the entry into force of the regulation. The Commission will report on the findings of the evaluation to the European Parliament, the Council and the European Economic and Social Committee.

2.2. Management and control system(s)

2.2.1. Justification of the management mode(s), the funding implementation mechanism(s), the payment modalities and the control strategy proposed

The Regulation establishes a new policy with regard to harmonised rules for the provision of artificial intelligence systems in the internal market while ensuring the respect of safety and fundamental rights. These new rules require a consistency mechanism for the cross-border application of the obligations under this Regulation in the form of a new advisory group coordinating the activities of national authorities.

In order to face these new tasks, it is necessary to appropriately resource the Commission’s services. The enforcement of the new Regulation is estimated to require 10 FTE à regime (5 FTE for the support to the activities of the Board and 5 FTE for the European Data Protection Supervisor acting as a notifying body for AI systems deployed by a body of the European Union).

2.2.2. Information concerning the risks identified and the internal control system(s) set up to mitigate them

In order to ensure that the members of the Board have the possibility to make informed analysis on the basis of factual evidence, it is foreseen that the Board should be supported by the administrative structure of the Commission and that an expert group be created to provide additional expertise where required.

2.2.3. Estimate and justification of the cost-effectiveness of the controls (ratio of “control costs ÷ value of the related funds managed”), and assessment of the expected levels of risk of error (at payment & at closure)

For the meeting expenditure, given the low value per transaction (e.g. refunding travel costs for a delegate for a meeting), standard control procedures seem sufficient. Regarding the development of the database, contract attribution has a strong internal control system in place in DG CNECT through centralised procurement activities.

2.3. Measures to prevent fraud and irregularities

Specify existing or envisaged prevention and protection measures, e.g. from the Anti-Fraud Strategy.

The existing fraud prevention measures applicable to the Commission will cover the additional appropriations necessary for this Regulation.

3. ESTIMATED FINANCIAL IMPACT OF THE PROPOSAL/INITIATIVE

3.1. Heading(s) of the multiannual financial framework and expenditure budget line(s) affected

• Existing budget lines

In order of multiannual financial framework headings and budget lines.

3.2. Estimated financial impact of the proposal on appropriations

3.2.1. Summary of estimated impact on expenditure on operational appropriations

–  The proposal/initiative does not require the use of operational appropriations

– X The proposal/initiative requires the use of operational appropriations, as explained below:

3.2.3. Summary of estimated impact on administrative appropriations

–  The proposal/initiative does not require the use of appropriations of an administrative nature

– X The proposal/initiative requires the use of appropriations of an administrative nature, as explained below:

The appropriations required for human resources and other expenditure of an administrative nature will be met by appropriations from the DG that are already assigned to management of the action and/or have been redeployed within the DG, together if necessary with any additional allocation which may be granted to the managing DG under the annual allocation procedure and in the light of budgetary constraints.

3.2.3.1. Estimated requirements of human resources

–  The proposal/initiative does not require the use of human resources.

– X The proposal/initiative requires the use of human resources, as explained below:

The human resources required will be met by staff from the DG who are already assigned to management of the action and/or have been redeployed within the DG, together if necessary with any additional allocation which may be granted to the managing DG under the annual allocation procedure and in the light of budgetary constraints.

EDPS is expected to provide half of the resources required.

Description of tasks to be carried out:

Officials and temporary staff

To prepare a total of 13-16 meetings, draft reports, continue policy work, e.g. regarding future amendments of the list of high-risk AI applications, and maintain relations with Member States’ authorities will require four AD FTE and 1 AST FTE.

For AI systems developed by the EU institutions, the European Data Protection Supervisor is responsible. Based on past experience, it can be estimated that 5 AD FTE are reuqired to fulfill the EDPS responsibilites under the draft legislation.

External staff

3.2.4. Compatibility with the current multiannual financial framework

The proposal/initiative:

– X can be fully financed through redeployment within the relevant heading of the Multiannual Financial Framework (MFF).

No reporgramming is needed.

–  requires use of the unallocated margin under the relevant heading of the MFF and/or use of the special instruments as defined in the MFF Regulation.

Explain what is required, specifying the headings and budget lines concerned, the corresponding amounts, and the instruments proposed to be used.

–  requires a revision of the MFF.

Explain what is required, specifying the headings and budget lines concerned and the corresponding amounts.

3.2.5. Third-party contributions

The proposal/initiative:

– X does not provide for co-financing by third parties

–  provides for the co-financing by third parties estimated below:

Appropriations in EUR million (to three decimal places)

3.3. Estimated impact on revenue

–  The proposal/initiative has the following financial impact:

–  The proposal/initiative has the following financial impact:

–  on other revenue

–  on other revenue

– Please indicate, if the revenue is assigned to expenditure lines

EUR million (to three decimal places)

For assigned revenue, specify the budget expenditure line(s) affected.

Other remarks (e.g. method/formula used for calculating the impact on revenue or any other information).

(1) https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next-commission_en.pdf

(2) European Commission, White Paper on Artificial Intelligence – A European approach to excellence and trust, COM(2020) 65 final, 2020.

(3) European Council, Special meeting of the European Council (1 and 2 October 2020) – Conclusions, EUCO 13/20, 2020, p. 6.

(4) European Parliament resolution of 20 October 2020 with recommendations to the Commission on a framework of ethical aspects of artificial intelligence, robotics and related technologies, 2020/2012(INL).

(5) European Council, European Council meeting (19 October 2017) – Conclusion EUCO 14/17, 2017, p. 8.

(6) Council of the European Union, Artificial intelligence b) Conclusions on the coordinated plan on artificial intelligence-Adoption 6177/19, 2019.

(7) European Council, Special meeting of the European Council (1and 2 October 2020) – Conclusions EUCO 13/20, 2020.

(8) Council of the European Union, Presidency conclusions – The Charter of Fundamental Rights in the context of Artificial Intelligence and Digital Change, 11481/20, 2020.

(9) European Parliament resolution of 20 October 2020 on a framework of ethical aspects of artificial intelligence, robotics and related technologies, 2020/2012(INL).

(1)0 European Parliament resolution of 20 October 2020 on a civil liability regime for artificial intelligence, 2020/2014(INL).

(11) European Parliament resolution of 20 October 2020 on intellectual property rights for the development of artificial intelligence technologies, 2020/2015(INI).

(12) European Parliament Draft Report, Artificial intelligence in criminal law and its use by the police and judicial authorities in criminal matters, 2020/2016(INI).

(13) European Parliament Draft Report, Artificial intelligence in education, culture and the audiovisual sector, 2020/2017(INI). In that regard, the Commission has adopted the Digital Education Action Plan 2021-2027: Resetting education and training for the digital age, which foresees the development of ethical guidelines in AI and Data usage in education – Commission Communication COM(2020) 624 final.

(14) Directive 2013/36/EU of the European Parliament and of the Council of 26 June 2013 on access to the activity of credit institutions and the prudential supervision of credit institutions and investment firms, amending Directive 2002/87/EC and repealing Directives 2006/48/EC and 2006/49/EC Text with EEA relevance, OJ L 176, 27.6.2013, p. 338–436.

(15) Directive 2000/31/EC of the European Parliament and of the Council of 8 June 2000 on certain legal aspects of information society services, in particular electronic commerce, in the Internal Market (‘Directive on electronic commerce’), OJ L 178, 17.7.2000, p. 1–16.

(16) See Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on a Single Market For Digital Services (Digital Services Act) and amending Directive 2000/31/EC COM/2020/825 final.

(17) Communication from the Commission, Shaping Europe’s Digital Future, COM/2020/67 final.

(18) 2030 Digital Compass: the European way for the Digital Decade.

(19) Proposal for a Regulation on European data governance (Data Governance Act) COM/2020/767.

(20) Directive (EU) 2019/1024 of the European Parliament and of the Council of 20 June 2019 on open data and the re-use of public sector information, PE/28/2019/REV/1, OJ L 172, 26.6.2019, p. 56–83.

(21) Commission Communication, A European strategy for data COM/2020/66 final.

(22) See all consultation results here.

(23) European Commission, Building Trust in Human-Centric Artificial Intelligence, COM(2019) 168.

(24) HLEG, Ethics Guidelines for Trustworthy AI, 2019.

(25) HLEG, Assessment List for Trustworthy Artificial Intelligence (ALTAI) for self-assessment, 2020.

(26) The AI Alliance is a multi-stakeholder forum launched in June 2018, AI Alliance https://ec.europa.eu/digital-single-market/en/european-ai-alliance

(27) European Commission, Inception Impact Assessment For a Proposal for a legal act of the European Parliament and the Council laying down requirements for Artificial Intelligence.

(28) For details of all the consultations that have been carried out see Annex 2 of the impact assessment.

(29) High-Level Expert Group on Artificial Intelligence, Ethics Guidelines for Trustworthy AI, 2019.

(30) They were also endorsed by the Commission in its 2019 Communication on human-centric approach to AI.

(31) OJ C […], […], p. […].

(32) OJ C […], […], p. […].

(33) European Council, Special meeting of the European Council (1 and 2 October 2020) – Conclusions, EUCO 13/20, 2020, p. 6.

(34) European Parliament resolution of 20 October 2020 with recommendations to the Commission on a framework of ethical aspects of artificial intelligence, robotics and related technologies, 2020/2012(INL).

(35) Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation) (OJ L 119, 4.5.2016, p. 1).

(36) Regulation (EU) 2018/1725 of the European Parliament and of the Council of 23 October 2018 on the protection of natural persons with regard to the processing of personal data by the Union institutions, bodies, offices and agencies and on the free movement of such data, and repealing Regulation (EC) No 45/2001 and Decision No 1247/2002/EC (OJ L 295, 21.11.2018, p. 39)

(37) Directive (EU) 2016/680 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data by competent authorities for the purposes of the prevention, investigation, detection or prosecution of criminal offences or the execution of criminal penalties, and on the free movement of such data, and repealing Council Framework Decision 2008/977/JHA (Law Enforcement Directive) (OJ L 119, 4.5.2016, p. 89).

(38) Council Framework Decision 2002/584/JHA of 13 June 2002 on the European arrest warrant and the surrender procedures between Member States (OJ L 190, 18.7.2002, p. 1).

(39) Regulation (EC) No 300/2008 of the European Parliament and of the Council of 11 March 2008 on common rules in the field of civil aviation security and repealing Regulation (EC) No 2320/2002 (OJ L 97, 9.4.2008, p. 72).

(40) Regulation (EU) No 167/2013 of the European Parliament and of the Council of 5 February 2013 on the approval and market surveillance of agricultural and forestry vehicles (OJ L 60, 2.3.2013, p. 1).

(41) Regulation (EU) No 168/2013 of the European Parliament and of the Council of 15 January 2013 on the approval and market surveillance of two- or three-wheel vehicles and quadricycles (OJ L 60, 2.3.2013, p. 52).

(42) Directive 2014/90/EU of the European Parliament and of the Council of 23 July 2014 on marine equipment and repealing Council Directive 96/98/EC (OJ L 257, 28.8.2014, p. 146).

(43) Directive (EU) 2016/797 of the European Parliament and of the Council of 11 May 2016 on the interoperability of the rail system within the European Union (OJ L 138, 26.5.2016, p. 44).

(44) Regulation (EU) 2018/858 of the European Parliament and of the Council of 30 May 2018 on the approval and market surveillance of motor vehicles and their trailers, and of systems, components and separate technical units intended for such vehicles, amending Regulations (EC) No 715/2007 and (EC) No 595/2009 and repealing Directive 2007/46/EC (OJ L 151, 14.6.2018, p. 1).

(45) Regulation (EU) 2018/1139 of the European Parliament and of the Council of 4 July 2018 on common rules in the field of civil aviation and establishing a European Union Aviation Safety Agency, and amending Regulations (EC) nº 2111/2005, (EC) nº 1008/2008, (EU) nº 996/2010, (EU) nº 376/2014 and Directives 2014/30/EU and 2014/53/EU of the European Parliament and of the Council, and repealing Regulations (EC) nº 552/2004 and (EC) nº 216/2008 of the European Parliament and of the Council and Council Regulation (EEC) nº 3922/91 (OJ L 212, 22.8.2018, p. 1).

(46) Regulation (EU) 2019/2144 of the European Parliament and of the Council of 27 November 2019 on type-approval requirements for motor vehicles and their trailers, and systems, components and separate technical units intended for such vehicles, as regards their general safety and the protection of vehicle occupants and vulnerable road users, amending Regulation (EU) 2018/858 of the European Parliament and of the Council and repealing Regulations (EC) nº 78/2009, (EC) nº 79/2009 and (EC) nº 661/2009 of the European Parliament and of the Council and Commission Regulations (EC) nº 631/2009, (EU) nº 406/2010, (EU) nº 672/2010, (EU) nº 1003/2010, (EU) nº 1005/2010, (EU) nº 1008/2010, (EU) nº 1009/2010, (EU) nº 19/2011, (EU) nº 109/2011, (EU) nº 458/2011, (EU) nº 65/2012, (EU) nº 130/2012, (EU) nº 347/2012, (EU) nº 351/2012, (EU) nº 1230/2012 and (EU) 2015/166 (OJ L 325, 16.12.2019, p. 1).

(47) Regulation (EU) 2017/745 of the European Parliament and of the Council of 5 April 2017 on medical devices, amending Directive 2001/83/EC, Regulation (EC) nº 178/2002 and Regulation (EC) nº 1223/2009 and repealing Council Directives 90/385/EEC and 93/42/EEC (OJ L 117, 5.5.2017, p. 1).

(48) Regulation (EU) 2017/746 of the European Parliament and of the Council of 5 April 2017 on in vitro diagnostic medical devices and repealing Directive 98/79/EC and Commission Decision 2010/227/EU (OJ L 117, 5.5.2017, p. 176).

(49) Directive 2013/32/EU of the European Parliament and of the Council of 26 June 2013 on common procedures for granting and withdrawing international protection (OJ L 180, 29.6.2013, p. 60).

(50) Regulation (EC) nº 810/2009 of the European Parliament and of the Council of 13 July 2009 establishing a Community Code on Visas (Visa Code) (OJ L 243, 15.9.2009, p. 1).

(51) Regulation (EC) nº 765/2008 of the European Parliament and of the Council of 9 July 2008 setting out the requirements for accreditation and market surveillance relating to the marketing of products and repealing Regulation (EEC) nº 339/93 (OJ L 218, 13.8.2008, p. 30).

(52) Decision nº 768/2008/EC of the European Parliament and of the Council of 9 July 2008 on a common framework for the marketing of products, and repealing Council Decision 93/465/EEC (OJ L 218, 13.8.2008, p. 82).

(53) Regulation (EU) 2019/1020 of the European Parliament and of the Council of 20 June 2019 on market surveillance and compliance of products and amending Directive 2004/42/EC and Regulations (EC) nº 765/2008 and (EU) nº 305/2011 (Text with EEA relevance) (OJ L 169, 25.6.2019, p. 1–44).

(54) Regulation (EU) nº 1025/2012 of the European Parliament and of the Council of 25 October 2012 on European standardisation, amending Council Directives 89/686/EEC and 93/15/EEC and Directives 94/9/EC, 94/25/EC, 95/16/EC, 97/23/EC, 98/34/EC, 2004/22/EC, 2007/23/EC, 2009/23/EC and 2009/105/EC of the European Parliament and of the Council and repealing Council Decision 87/95/EEC and Decision nº 1673/2006/EC of the European Parliament and of the Council (OJ L 316, 14.11.2012, p. 12).

(55) Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation) (OJ L 119, 4.5.2016, p. 1).

(56) Directive 2013/36/EU of the European Parliament and of the Council of 26 June 2013 on access to the activity of credit institutions and the prudential supervision of credit institutions and investment firms, amending Directive 2002/87/EC and repealing Directives 2006/48/EC and 2006/49/EC (OJ L 176, 27.6.2013, p. 338).

(57) Directive 2001/95/EC of the European Parliament and of the Council of 3 December 2001 on general product safety (OJ L 11, 15.1.2002, p. 4).

(58) OJ L 123, 12.5.2016, p. 1.

(59) Regulation (EU) nº 182/2011 of the European Parliament and of the Council of 16 February 2011 laying down the rules and general principles concerning mechanisms for control by the Member States of the Commission’s exercise of implementing powers (OJ L 55, 28.2.2011, p.13).

(60) Directive 2000/31/EC of the European Parliament and of the Council of 8 June 2000 on certain legal aspects of information society services, in particular electronic commerce, in the Internal Market (‘Directive on electronic commerce’) (OJ L 178, 17.7.2000, p. 1).

(61) Commission Recommendation of 6 May 2003 concerning the definition of micro, small and medium-sized enterprises (OJ L 124, 20.5.2003, p. 36).

(62) Council Framework Decision 2002/584/JHA of 13 June 2002 on the European arrest warrant and the surrender procedures between Member States (OJ L 190, 18.7.2002, p. 1).

(63) Regulation (EU) 2019/881 of the European Parliament and of the Council of 17 April 2019 on ENISA (the European Union Agency for Cybersecurity) and on information and communications technology cybersecurity certification and repealing Regulation (EU) No 526/2013 (Cybersecurity Act) (OJ L 151, 7.6.2019, p. 1).

(64) As referred to in Article 54(2)(a) or (b) of the Financial Regulation

(65) Details of management modes and references to the Financial Regulation may be found on the BudgWeb site: http://www.cc.cec/budg/man/budgmanag/budgmanag_en.html

(66) Diff. = Differentiated appropriations / Non-diff. = Non-differentiated appropriations.

(67) EFTA: European Free Trade Association.

(68) Candidate countries and, where applicable, potential candidate countries from the Western Balkans.

(69) Indicative and dependent on budget availability.

(70) According to the official budget nomenclature.

(71) Technical and/or administrative assistance and expenditure in support of the implementation of EU programmes and/or actions (former ‘BA’ lines), indirect research, direct research.

(72) All figures in this column are indicative and subject to the continuation of the programmes and availability of appropriations

(73) All figures in this column are indicative and subject to the continuation of the programmes and availability of appropriations

(74) As described in point 1.4.2. ‘Specific objective(s)…’

(75) All figures in this column are indicative and subject to the continuation of the programmes and availability of appropriations.

(76) Technical and/or administrative assistance and expenditure in support of the implementation of EU programmes and/or actions (former ‘BA’ lines), indirect research, direct research.

(77) All figures in this column are indicative and subject to the continuation of the programmes and availability of appropriations.

(78) AC = Contract Staff; AL = Local Staff; END = Seconded National Expert; INT = agency staff; JPD = Junior Professionals in Delegations.

(79) Sub-ceiling for external staff covered by operational appropriations (former ‘BA’ lines).

(80) Year N is the year in which implementation of the proposal/initiative starts. Please replace “N” by the expected first year of implementation (for instance: 2021). The same for the following years.

(81) As regards traditional own resources (customs duties, sugar levies), the amounts indicated must be net amounts, i.e. gross amounts after deduction of 20 % for collection costs.

20Jun/21

A proposta regulatória da União Europeia para a Inteligência Artificial (3ª parte). Sistemas de “alto risco (18.06.2021)

Download the PDF file .

29May/21

Número 25, primer semestre de 2021

  1. Almanza Casola, Gonzalo Rafael
  2. Atencio Yero, Dinalvis
  3. Coquilo António, Neves
  4. González Olivera, Reynaldo Marcelo
  5. Guilherme Jackson, Dinis
  6. Hechavarría Derronselet, Yoendris
  7. Martínez, Cristina
  8. Reinaldo Filho, Demócrito
  9. Rivero de la Rosa, Ildefons0
  10. Rondón Aguilar, Amaury
  11. Ortiz Negrín, Dayai A.
  12. Pompa Torres, Enrique Roberto
  13. Rodríguez Ramírez, María Isabel
  14. Vázquez Riverón, Arelys
ISSN 1989-5852
Título clave: Revista informática jurídica
Tít. abreviado: Rev. inform. jurid.

Introducción

En este vigésimo quinto número de la Revista, aparecen artículos de colaboradores por orden alfabético.

Un agradecimiento especial a los 5 colaboradores que han aportado sus artículos para hacer posible la publicación semestral de esta revista, que ya lleva 12 años y medio.

Quisiera aprovechar esta publicación deseando que el COVID pueda estar controlado este año y que podamos volver a nuestra anterior forma de vida.

Un cordial saludo para todos y gracias por vuestra colaboración.

José Cuervo Álvarez

Ortiz Negrín, Dayai A.

Carrera: Ingeniería en Ciencias Informáticas. Universidad de Granma. Cuba.

Pompa Torres, Enrique Roberto

Universidad de Granma, Facultad de Ciencias Informáticas, Naturales y Exactas. Cuba

Rodríguez Ramírez, María Isabel

Universidad de Granma, Facultad de Ciencias Informáticas, Naturales y Exactas. Cuba

Vázquez Riverón, Arelys

Universidad de Granma, Facultad de Ciencias Informáticas, Naturales y Exactas. Cuba

Reinaldo Filho, Demócrito

Desembargador do TJPE

08Abr/21

Ley 1955 de 2019, de 25 de mayo de 2019

Ley 1955 de 2019, de 25 de mayo de 2019 “Por el cual se expide el Plan Nacional de Desarrollo 2018-2022 “Pacto por Colombia, Pacto por la Equidad”.

El Congreso de Colombia

DECRETA:

TÍTULO I. PARTE GENERAL

Artículo 1°. Objetivos del Plan Nacional de Desarrollo.

El Plan Nacional de Desarrollo 2018-2022 “Pacto por Colombia, pacto por la equidad”, que se expide por medio de la presente Ley, tiene como objetivo sentar las bases de legalidad, emprendimiento y equidad que permitan lograr la igualdad de oportunidades para todos los colombianos, en concordancia con un proyecto de largo plazo con el que Colombia alcance los Objetivos de Desarrollo Sostenible al 2030.

Artículo 2°. Parte integral de esta ley.

El documento denominado “Bases del Plan Nacional de Desarrollo 2018 – 2022: Pacto por Colombia, pacto por la equidad”, elaborado por el Gobierno nacional con la participación del Consejo Superior de la Judicatura y del Consejo Nacional de Planeación, y construido desde los territorios, con las modificaciones realizadas en el trámite legislativo, es parte integral del Plan Nacional de Desarrollo, y se incorpora a la presente Ley como un anexo.

Artículo 3°. Pactos del Plan Nacional de Desarrollo.

El Plan Nacional de Desarrollo está compuesto por objetivos de política pública denominados pactos, concepto que refleja la importancia del aporte de todas las facetas de la sociedad en la construcción de una Colombia equitativa.

El Plan se basa en los siguientes tres pactos estructurales:

1. Legalidad. El Plan establece las bases para la protección de las libertades individuales y de los bienes públicos, para el imperio de la Ley y la garantía de los derechos humanos, para una lucha certera contra la corrupción y para el fortalecimiento de la Rama Judicial.

2. Emprendimiento. Sobre el sustento de la legalidad, el Plan plantea expandir las oportunidades de los colombianos a través del estímulo al emprendimiento, la formalización del trabajo y las actividades económicas, y el fortalecimiento del tejido empresarial en las ciudades y en el campo.

3. Equidad. Como resultado final, el Plan busca la igualdad de oportunidades para todos, por medio de una política social moderna orientada a lograr la inclusión social y la inclusión productiva de los colombianos, y que se centra en las familias como los principales vehículos para la construcción de lazos de solidaridad y de tejido social.

El logro de estos objetivos requiere de algunas condiciones habilitantes que permitan acelerar el cambio social. Por lo tanto, el Plan contempla los siguientes pactos que contienen estrategias transversales:

4. Pacto por la sostenibilidad: producir conservando y conservar produciendo.

5. Pacto por la ciencia, la tecnología y la innovación: un sistema para construir el conocimiento de la Colombia del futuro.

6. Pacto por el transporte y la logística para la competitividad y la integración regional.

7. Pacto por la transformación digital de Colombia: Gobierno, empresas y hogares conectados con la era del conocimiento.

8. Pacto por la calidad y eficiencia de los servicios públicos: agua y energía para promover la competitividad y el bienestar de todos.

9. Pacto por los recursos minero-energéticos para el crecimiento sostenible y la expansión de oportunidades.

10. Pacto por la protección y promoción de nuestra cultura y desarrollo de la economía naranja.

11. Pacto por la construcción de paz: cultura de la legalidad, convivencia, estabilización y víctimas.

12. Pacto por la equidad de oportunidades para grupos indígenas, negros, afros, raizales, palenqueros y Rrom.

13. Pacto por la inclusión de todas las personas con discapacidad.

14. Pacto por la equidad de las mujeres.

15. Pacto por una gestión pública efectiva.

Así mismo, el Plan integra una visión territorial basada en la importancia de conectar territorios, gobiernos y poblaciones. Esto se ve reflejado en los siguientes pactos:

16. Pacto por la descentralización: conectar territorios, gobiernos y poblaciones.

17 – 25. Pacto por la productividad y la equidad en las regiones:

• Región Pacífico: Diversidad para la equidad, la convivencia pacífica y el desarrollo sostenible.

• Región Caribe: Una transformación para la igualdad de oportunidades y la equidad.

• Seaflower Región: Por una región próspera, segura y sostenible.

• Región Central: Centro de innovación y nodo logístico de integración productiva nacional e internacional.

• Región Santanderes: Eje logístico, competitivo y sostenible de Colombia.

• Región Amazonia: Desarrollo sostenible por una Amazonia viva.

• Eje Cafetero y Antioquia: Conectar para la competitividad y el desarrollo logístico sostenible.

• Región Llanos – Orinoquía: Conectar y potenciar la despensa sostenible de la región con el país y el mundo.

• Región Océanos: Colombia, potencia bioceánica.

TÍTULO II

CAPÍTULO I. Plan de Inversiones y Presupuestos Plurianuales

Artículo 4°. Plan Nacional de Inversiones Públicas 2019- 2022.

El Plan Nacional de Inversiones Públicas 2019-2022 se estima en un valor de mil noventa y seis, coma uno ($1.096,1) billones, a pesos constantes de 2018, el cual incluye el componente Plan Plurianual de Inversiones para la Paz de forma transversal y que se estima en un valor de treinta y siete coma uno ($37,1) billones, a pesos constantes de 2018.

Tabla I. Fuentes que Financian el PND 2019-2022

Cifras en billones de pesos de 2018

Fuentes de financiación               Total PND

                                                               Billones de pesos de 2018           Participación

PGN                                                      352,2                                                    32,1%

SGP                                                      169,3                                                    15,4%

Territoriales                                       115,7                                                    10,6%

EICE                                                      57,8                                                      5,3%

SGR                                                       33,7                                                      3,1%

Cooperación                                      4,1                                                         0,4%

Privados                                              363,2                                                    33,1%

Total                                                     1.096,1                                                100%

Fuente: Dirección de Inversiones y Finanzas Públicas (DNP).

TABLA II. Distribución por Pactos del PND

Pacto/Línea                                                                      Miles de millones de pesos de 2018

I. Pacto por la legalidad: seguridad efectiva

y justicia transparente para que todos

vivamos con libertad y en democracia.                                                132.776

Seguridad, autoridad y orden

para la libertad: defensa nacional,

seguridad ciudadana y colaboración ciudadana.                                63.616

Imperio de la ley y convivencia:

justicia accesible, oportuna y en toda Colombia,

para todos.                                                                                                       57.477

Alianza contra la corrupción: tolerancia cero

con los corruptos.                                                                                          3.163

Colombia en la escena global: Política exterior

responsable, innovadora y constructiva.                                               682

Participación ciudadana: promoviendo el diálogo,

la inclusión democrática y la libertad de cultos

para la equidad.                                                                                              7.026

Otros                                                                                                                   811

II. Pacto por el emprendimiento, la formalización

y la productividad: una economía dinámica,

incluyente y sostenible que potencie todos

nuestros talentos.                                                                                         27.183

Entorno para crecer: formalización,

emprendimiento y dinamización empresarial.                                   10.563

Transformación empresarial: desarrollo productivo,

innovación y adopción tecnológica para la

productividad.                                                                                                 1.488

Un mundo de posibilidades: aprovechamiento

de mercados internacionales y atracción

de inversiones productivas.                                                                       58

Estado simple: menos trámites, regulación clara y más

competencia                                                                                                    656

Campo con progreso: una alianza para dinamizar el

desarrollo y la productividad de la Colombia rural.                           12.054

Turismo: el propósito que nos une.                                                        1.903

Otros.                                                                                                                  461

III. Pacto por la equidad: política social moderna centrada

en la familia, eficiente, de calidad y conectada a mercados.      510.124

Primero las niñas y los niños: desarrollo integral desde

la primera infancia hasta la adolescencia.                                            31.245

Salud para todos con calidad y eficiencia, sostenible por todos. 157.840

Educación de calidad para un futuro con oportunidades para

todos.                                                                                                                 216.004

Alianza por la seguridad alimentaria y la nutrición:

ciudadanos con mentes y cuerpos sanos.                                             192

Vivienda y entornos dignos e incluyentes.                                           46.470

Trabajo decente, acceso a mercados e ingresos dignos:

acelerando la inclusión productiva.                                                         31.786

Juventud naranja: todos los talentos cuentan para construir

país.                                                                                                                     75

Dignidad y felicidad para todos los adultos mayores.                      5.564

Deporte y recreación para el desarrollo integral de los

individuos, para la convivencia y cohesión social.                             10.577

Que nadie se quede atrás: acciones coordinadas para la

reducción de la pobreza.                                                                             7.757

Herramientas para una política social moderna y conectada

a mercados.                                                                                                      343

Otros.                                                                                                                  2.270

IV. Pacto por la sostenibilidad: producir conservando y

conservar produciendo.                                                                              12.672

Sectores comprometidos con la sostenibilidad y la

mitigación del cambio climático.                                                              1.833

Biodiversidad y riqueza natural: activos estratégicos de la

Nación.                                                                                                               2.241

Colombia resiliente: conocimiento y prevención para la

gestión del riesgo de desastres y la adaptación al cambio

climático.                                                                                                           3.345

Instituciones ambientales modernas, apropiación social

de la biodiversidad y manejo efectivo de los conflictos

socioambientales.                                                                                          5.253

V. Pacto por la Ciencia/ la Tecnología y la Innovación:

un sistema para construir el conocimiento de la

Colombia del futuro.                                                                                    21.201

Desarrollo de sistemas nacionales y regionales de

innovación integrados y eficaces.                                                            46

Tecnología e investigación para el desarrollo productivo

y social.                                                                                                              21.155

VI. Pacto por el transporte y la logística para la

competitividad y la integración regional.                                            66.213

Gobernanza e Institucionalidad moderna para el transporte

y la logística eficientes y seguros.                                                            3.533

Movilidad urbano-regional sostenible para la equidad,

la competitividad y la calidad de vida.                                                   6.339

Corredores estratégicos intermodales: red de transporte

nacional, nodos logísticos y eficiencia modal.                                     56.342

VII. Pacto por la transformación digital de Colombia:

Gobierno/ empresas y hogares conectados con la era

del conocimiento.                                                                                         18.023

Colombia se conecta: masificación de la banda ancha e

inclusión digital de todos los colombianos.                                          3.344

Hacia una sociedad digital e industria 4.0: por una relación

más eficiente, efectiva y transparente entre mercados,

ciudadanos y Estado.                                                                                    14.679

VIII. Pacto por la calidad y eficiencia de servicios públicos:

agua y energía para promover la competitividad y el

bienestar de todos.                                                                                       45.383

Energía que transforma: hacia un sector energético más

innovador, competitivo, limpio y equitativo.                                       24.673

Agua limpia y saneamiento básico adecuado:

hacia una gestión responsable, sostenible y equitativa.                 20.687

Otros.                                                                                                                  23

IX. Pacto por los recursos minero-energéticos para el

crecimiento sostenible y la expansión de oportunidades.           97.876

Desarrollo minero energético con responsabilidad ambiental

y social.                                                                                                              12.812

Seguridad energética para el desarrollo productivo.                        85.064

X. Pacto por la protección y promoción de nuestra cultura

y desarrollo de la economía naranja.                                                    6.028

Todos somos cultura: la esencia de un país que se

transforma desde los territorios.                                                             6.002

Colombia naranja: desarrollo del emprendimiento de base

artística, creativa y tecnológica para la creación de nuevas

industrias.                                                                                                         26

XI. Pacto por la Construcción de Paz: Cultura de la legalidad,

convivencia, estabilización y víctimas.                                                 10.431(*)

XII. Pacto por la equidad de oportunidades para grupos

indígenas, negros, afros, raizales, palenqueros y Rrom.               29.000(**)

XIII. Pacto por la inclusión de todas las personas con

discapacidad.                                                                                                  834

Alianza por la inclusión y la dignidad de todas las personas

con discapacidad.                                                                                           834

XIV. Pacto por la equidad de las mujeres.                                           5.400(**)

XV. Pacto por una gestión pública efectiva.                                       8.296

Transformación de la administración pública.                                    2.320

Gasto público efectivo.                                                                                5.976

XVI. Pacto por la Descentralización: conectar territorios,

gobiernos y poblaciones.                                                                           57.496

Políticas e inversiones para el desarrollo, el ordenamiento

y fortalecimiento de la asociatividad.                                                     3.207

Estimular tanto la productividad como la equidad,

a través de la conectividad y los vínculos entre la ciudad

y el campo.                                                                                                       44.603

Desarrollo urbano y Sistema de Ciudades (SC) para la

sostenibilidad, la productividad y la calidad de vida.                        4.450

Gobiernos territoriales capaces y efectivos:

fortalecimiento institucional y modernización

para la descentralización efectiva y responsable.                             3.245

Instrumentos e información para la toma de decisiones

que promueven el desarrollo regional.                                                  1.991

Gasto privado transversal al Plan Nacional de

Desarrollo y otros.                                                                                        81.587

Total General                                                                                                  1.096,1

(*) Los recursos de este pacto hacen parte de los $37,1 billones del Plan Plurianual de Inversiones para la Paz.

(**) Estos valores NO SUMAN al total del Plan Plurianual de Inversiones por ser recursos transversales entre los diferentes pactos.

Fuente: Dirección de Inversiones y Finanzas Públicas (DNP).

En cumplimiento del artículo 3° del Acto Legislativo 01 del 7 de julio de 2016 por el cual “… se establecen instrumentos jurídicos para facilitar y asegurar la implementación y el desarrollo normativo del Acuerdo Final para la terminación del conflicto y la construcción de una paz estable y duradera”, se incluye el Plan Plurianual de Inversiones para la Paz por un valor de treinta y siete coma uno ($37,1) billones como un componente del Plan Plurianual de Inversiones del Plan Nacional de Desarrollo.

Tabla III. Plan Plurianual de Inversiones para la Paz

  Pacto/línea                                                                                    Miles de millones de 2018 

I. Pacto por la Legalidad: seguridad efectiva y justicia

transparente para que todos vivamos con libertad y

en democracia.                                                                                               1.125,6 

Inversiones con recursos de cooperación Internacional

para la Paz (por demanda).                                                                        811,4

Seguridad, autoridad y orden para la libertad: defensa

Nacional, seguridad ciudadana y colaboración ciudadana.            8,1

Imperio de la ley: derechos humanos, justicia accesible,

oportuna y en toda Colombia, para todos.                                           305,9

Participación ciudadana: promoviendo el diálogo,

la inclusión democrática y la libertad de cultos para

la equidad.                                                                                                        0,2

II. Pacto por el Emprendimiento, la Formalización y

la Productividad: una economía dinámica, incluyente

y sostenible que potencie todos nuestros talentos.                       2.508,2 

Inversiones con recursos de cooperación Internacional

 para la Paz (por demanda).                                                                       460,8

Entorno para crecer: formalización, emprendimiento y

dinamización empresarial.                                                                          31,2

Campo con progreso: una alianza para dinamizar el

desarrollo y la productividad de la Colombia rural.                           2.016,2

III. Pacto por la Equidad: política social moderna centrada

en la familia, eficiente, de calidad y conectada a mercados.      18.114,0 

Inversiones con recursos de cooperación Internacional

para la Paz (por demanda).                                                                        2.088,9

Fortalecimiento de las capacidades institucionales en

transversalización del enfoque de género dentro de las

entidades de los niveles nacional y territorial desde el

Sector Presidencia.                                                                                        5,8

Primero las niñas y los niños: desarrollo integral desde

la primera infancia hasta la adolescencia.                                            475,0

Salud para todos con calidad y eficiencia, sostenible por

todos.                                                                                                                 3.719,2

Educación de calidad para un futuro con oportunidades

para todos.                                                                                                       9.596,2

Alianza por la seguridad alimentaria y la nutrición:

ciudadanos con mentes y cuerpos sanos.                                             44,3

Vivienda y entornos dignos e incluyentes.                                           882,9

Trabajo decente, acceso a mercados e ingresos dignos:

acelerando la inclusión productiva.                                                         771,8

Dignidad y felicidad para todos los adultos mayores.                      99,8

Deporte y recreación para el desarrollo integral de los

individuos, para la convivencia y cohesión social.                             430,2

IV. Pacto por la Sostenibilidad: producir conservando y

conservar produciendo.                                                                              213,3 

Sectores comprometidos con la sostenibilidad y la

mitigación del cambio climático.                                                              56,6

Biodiversidad y riqueza natural: activos estratégicos de la

Nación.                                                                                                               39,4

Instituciones ambientales modernas, apropiación social

de la biodiversidad y manejo efectivo de los conflictos

socioambientales.                                                                                          117,3

V. Pacto por la Ciencia, la Tecnología y la Innovación:

un sistema para construir el conocimiento de la Colombia

del futuro.                                                                                                        167,7 

Tecnología e investigación para el desarrollo productivo

y social.                                                                                                              167,7

VI. Pacto por el Transporte y la Logística para la

Competitividad y la Integración Regional.                                          68,9 

Gobernanza e Institucionalidad moderna para el

transporte y la logística eficientes y seguros.                                      14,0

Movilidad urbano regional sostenible para la equidad,

la competitividad y la calidad de vida.                                                   33,3

Corredores estratégicos intermodales:

red de transporte nacional, nodos logísticos

y eficiencia modal.                                                                                         21,5

VII. Pacto por la Transformación Digital de Colombia:

Gobierno, empresas y hogares conectados con la era

del conocimiento.                                                                                         44,1

Colombia se conecta: masificación de la banda ancha

e inclusión digital de todos los colombianos.                                      28,7

Hacia una sociedad digital e industria 4.0: por una relación

más eficiente, efectiva y transparente entre mercados,

ciudadanos y Estado.                                                                                    15,4

VIII. Pacto por la Calidad y Eficiencia de Servicios Públicos:

agua y energía para promover la competitividad y el

bienestar de todos.                                                                                       2.335,2

Inversiones con recursos de cooperación Internacional

para la Paz (por demanda).                                                                        22,7

Energía que transforma: hacia un sector energético

más innovador, competitivo, limpio y equitativo.                             991,7

Agua limpia y saneamiento básico adecuado:

hacia una gestión responsable, sostenible y equitativa.                 1.320,7

IX. Pacto por los Recursos Minero-energéticos para el

Crecimiento Sostenible y la Expansión de Oportunidades.          1,5

Desarrollo minero energético con responsabilidad

ambiental y social.                                                                                         1,5

X. Pacto por la Protección y Promoción de Nuestra

Cultura y Desarrollo de la Economía Naranja.                                   177,9

Todos somos cultura: la esencia de un país que se

transforma desde los territorios.                                                             174,6

Colombia naranja: desarrollo del emprendimiento de

base artística, creativa y tecnológica para la creación

de nuevas industrias.                                                                                    3,3

XI. Pacto por la Construcción de Paz: Cultura de la legalidad,

Convivencia, Estabilización y Víctimas.                                                10.431

Inversiones con recursos de cooperación Internacional

para la Paz (por demanda).                                                                        728,7

Inversiones aprobadas por OCAD PAZ.                                                  2.852,3

Acciones efectivas para la política de estabilización:

intervención coordinada en zonas estratégicas con

seguridad, justicia y equidad.                                                                    5.229,2

Mayor coordinación y eficiencia del Estado para la

estabilización.                                                                                                  395,3

Instrumentos y herramientas que orientan la inversión y

el gasto eficiente para la estabilización, la construcción

de paz y la cultura de la legalidad.                                                           11,3

Reparación: Colombia atiende y repara a las víctimas.                    1.213,6

XIII. Pacto por la Inclusión de todas las Personas con

Discapacidad.                                                                                                  22,5

XV. Pacto por una Gestión Pública Efectiva.                                       0,6

Transformación de la administración pública.                                    0,6

XVI. Pacto por la Descentralización: conectar territorios,

gobiernos y poblaciones.                                                                           1.873,4

Políticas e inversiones para el desarrollo, el

ordenamiento y fortalecimiento de la asociatividad.                       35,7

Estimular tanto la productividad como la equidad,

a través de la conectividad y los vínculos entre la ciudad

y el campo.                                                                                                                       1.693,4

Desarrollo urbano y Sistema de Ciudades (SC) para la

sostenibilidad, la productividad y la calidad de vida.                                       125,2

Instrumentos e información para la toma de decisiones

que promueven el desarrollo regional.                                                                 19,1

Total general                                                                                                                   37.083,4

Fuente: Dirección de Inversiones y Finanzas Públicas (DNP).

Parágrafo 1°. Los recursos identificados como fuentes de entidades territoriales para financiamiento del Plan Nacional de Inversiones Públicas 2019-2022, corresponde a estimaciones de gastos de los niveles departamental, distrital y municipal en el marco de su autonomía, para la articulación de políticas, estrategias y programas nacionales con los territoriales, según los mecanismos de ejecución definidos en el presente Plan.

Parágrafo 2°. Apruébese como parte integral de la presente ley e incorpórese como anexo el documento “Plan Plurianual de Inversiones” incluido el componente especial para la Paz.

Parágrafo 3°. Como parte integral del Plan Plurianual de Inversiones se incluyen de manera transversal las proyecciones indicativas acordadas en el marco de las consultas previas con los grupos étnicos por veintinueve ($29) billones, estimadas para los pueblos indígenas en diez ($10) billones, los cuales se destinarán para el cumplimiento de los acuerdos que corresponden al Capítulo de los pueblos indígenas, y para las comunidades negras, afrocolombianas, raizales y palenqueras por valor de diecinueve ($19) billones, considerando el Plan Macroeconómico y el Marco Fiscal de Mediano Plazo del Gobierno nacional de acuerdo con todas las fuentes del presente Plan Plurianual de Inversiones y serán sujetos de control fiscal por el órgano competente.

Parágrafo 4°. El Gobierno nacional tiene el propósito de cumplimiento de lo pactado en los acuerdos con la Minga social por la defensa de la vida, el territorio, la democracia, la justicia y la paz logrado 6 de abril de 2019.

Artículo 5°. Recursos financieros, presupuestos plurianuales y consistencia fiscal del Plan Nacional de Inversiones Públicas.

El valor total de los gastos que se realicen para la ejecución del presente plan financiados con recursos del Presupuesto General de la Nación, no podrán superar en ningún caso el monto de los recursos disponibles de conformidad con el Plan Macroeconómico y el Marco Fiscal de Mediano Plazo (MFMP) del Gobierno nacional.

Las metas de los programas contempladas en el Plan Nacional de Desarrollo 2018 – 2022 se ajustarán de acuerdo con las disponibilidades fiscales que se establezcan en el Marco Fiscal de Mediano Plazo (MFMP), en el Marco de Gasto de Mediano Plazo (MGMP) y en los Presupuestos Generales de la Nación aprobados para cada vigencia, según lo señalado en los artículos 4° y 5° de la Ley 1473 de 2011.

 CAPÍTULO II. Mecanismos de ejecución del Plan

SECCIÓN I. PACTO POR LA LEGALIDAD: SEGURIDAD EFECTIVA Y JUSTICIA TRANSPARENTE PARA QUE TODOS VIVAMOS CON LIBERTAD Y EN DEMOCRACIA

SUBSECCIÓN 1. LEGALIDAD PARA EL SECTOR AMBIENTAL Y MINERO ENERGÉTICO

Artículo 6°. Acceso a recursos genéticos y productos derivados.

Las personas naturales o jurídicas, nacionales o extranjeras, que a la entrada en vigencia de la presente Ley hayan realizado o se encuentren realizando actividades de investigación con fines de prospección biológica, que contemple actividades de acceso a recursos genéticos y/o sus productos derivados sin contar con la autorización del Ministerio de Ambiente y Desarrollo Sostenible (MADS), tendrán dos años a partir de la entrada en vigencia de la presente Ley, para solicitar ante dicha entidad, el Contrato de Acceso a Recursos Genéticos y sus Productos Derivados.

El Ministerio citado podrá otorgar este contrato, aun cuando los especímenes utilizados para las actividades de acceso a recursos genéticos o sus productos derivados señaladas en el inciso anterior no cuenten con los permisos de colecta.

Con base en este contrato el Instituto Alexander von Humboldt registrará la colección biológica de los especímenes. También registrará por una sola vez, dentro de los dos años siguientes a la entrada en vigencia de la presente Ley, las colecciones biológicas existentes, que no puedan acreditar el material obtenido en el marco de actividades de recolección, de proyectos de investigación científica y/o prácticas docentes universitarias finalizadas, aun cuando las mismas no acrediten los permisos de colecta.

Desde la radicación de la solicitud y hasta la celebración y perfeccionamiento del Contrato de Acceso a Recursos Genéticos y/o sus Productos Derivados o hasta la denegación del trámite, el solicitante podrá continuar accediendo al recurso genético y/o sus productos derivados.

Parágrafo. El uso de fauna silvestre en el marco de la investigación científica no comercial, no constituye hecho generador de la tasa compensatoria de que trata el artículo 42 de la Ley 99 de 1993.

Artículo 7°.Conflictos Socioambientales en Áreas Protegidas del Sistema Nacional de Áreas Protegidas (SINAP).

Las autoridades ambientales, en coordinación con otras entidades públicas y en el marco de sus funciones podrán celebrar acuerdos con población campesina en condición de vulnerabilidad, que habite, ocupe o realice usos tradicionales asociados a la economía campesina en áreas protegidas del SINAP que deriven su sustento de estos usos y que puedan ser reconocidos por las entidades que suscriben los acuerdos con una relación productiva artesanal y tradicional con el área protegida, con el objeto de contribuir a la atención de los conflictos de uso, ocupación y tenencia que se presenten en estas áreas. Estos acuerdos permitirán generar alternativas de usos compatibles con los objetivos de conservación del área, ordenar y regular los usos asociados a la economía campesina, para mejorar el estado de conservación de las áreas, definir actividades productivas acordes con los objetivos de conservación del área protegida y las condiciones de vida de la población, garantizando sus derechos fundamentales.

Estos acuerdos podrán ser celebrados hasta tanto la concurrencia de las distintas entidades del Estado permita atender estos conflictos por uso, ocupación y tenencia con alternativas diferenciales, integrales y definitivas.

Lo previsto en este artículo no modifica el régimen de propiedad de las áreas, ni su régimen de protección ambiental.

Artículo 8°. Medidas tendientes a dinamizar procesos de saneamiento al interior de las áreas del Sistema de Parques Nacionales Naturales.

Para efectos del saneamiento y recuperación ambiental de las áreas del Sistema de Parques Nacionales Naturales de Colombia (SPNN), Parques Nacionales Naturales de Colombia podrá adelantar las siguientes medidas:

1. Saneamiento automático: En los eventos en que el Estado adquiera inmuebles ubicados al interior de las áreas del SPNN por motivos de utilidad pública, operará el saneamiento automático de vicios en los títulos y la tradición, incluso los que surjan con posterioridad al proceso de adquisición. Lo anterior, sin perjuicio de las acciones indemnizatorias que procedan según la ley.

El saneamiento automático de que trata este numeral, no aplicará respecto de los vicios que pudieran derivarse de la adquisición de inmuebles en territorios colectivos de comunidades étnicas, afrocolombianas o raizales.

2. Compra de mejoras: Parques Nacionales Naturales de Colombia u otra entidad pública podrán reconocer mejoras realizadas en predios al interior de las áreas del SPNN con posterioridad a la declaratoria del área protegida y anteriores al 30 de noviembre de 2016, de acuerdo con la reglamentación que se expida para el efecto.

Este reconocimiento solo aplica para las personas previamente caracterizadas que reúnan las siguientes condiciones:

i) que no sean propietarios de tierras;

ii) que se hallen en condiciones de vulnerabilidad o deriven directamente del uso de la tierra y de los recursos naturales su fuente básica de subsistencia; y

iii) siempre y cuando las mejoras no estén asociadas a cultivos ilícitos, o a su procesamiento o comercialización, así como a actividades de extracción ilícita de minerales.

Para proceder al reconocimiento y pago de indemnizaciones o mejoras en los términos de este artículo, será necesario contar con la disponibilidad presupuestal correspondiente.

Artículo 9°.Coordinación Interinstitucional para el Control y Vigilancia contra la Deforestación y otros Crímenes Ambientales.

Créase el Consejo Nacional de Lucha contra la Deforestación y otros Crímenes Ambientales Asociados (Conaldef) para la defensa del agua, la biodiversidad y el medio ambiente, conformado por el Consejero Presidencial para la Seguridad Nacional, el Ministro de Defensa Nacional, el Ministro de Justicia y del Derecho, el Ministro de Ambiente y Desarrollo Sostenible, quien lo preside, el Procurador General de la Nación y el Fiscal General de la Nación. Deberá participar el Ministro de Relaciones Exteriores, de existir acciones en zonas fronterizas o que involucren extranjeros, así como los Ministros de Agricultura y Desarrollo Rural, Transporte y Minas y Energía, cuando los asuntos a tratar correspondan a sus competencias.

Para el logro de su objetivo el Consejo ejercerá las siguientes funciones:

1. Proponer la política, planes, programas y estrategias de lucha contra la deforestación y otros delitos ambientales asociados, así como definir y coordinar las medidas interinstitucionales para su control.

2. Adoptar mediante acuerdo su propio reglamento y dictar las normas necesarias para el debido cumplimiento de sus funciones y proponer al Gobierno la expedición de las que fueren de competencia de éste.

3. Evaluar avances en la lucha contra la deforestación y otros crímenes ambientales asociados.

4. Mantener contactos con Gobiernos o entidades extranjeras en asuntos de su competencia y adelantar gestiones ante los mismos con el fin de coordinar la acción con la de otros Estados y de obtener la asistencia que fuere del caso.

5. Las demás relacionadas con su objetivo.

El Consejo contará con dos coordinaciones que constituirán instancias técnicas de articulación y evaluación para el estudio y sugerencia de acciones y políticas que permitan el logro de sus funciones:

La Coordinación de Monitoreo y Análisis de la Información para efectos de analizar, valorar y hacer seguimiento a las acciones de control y prevención de la deforestación y otros crímenes ambientales asociados, integrada por delegados del Consejero Presidencial de Seguridad Nacional, del Ministro de Defensa Nacional, del Ministro de Ambiente y Desarrollo Sostenible, del Director del Instituto de Hidrología, Meteorología y Estudios Ambientales (IDEAM) Sistema de Monitoreo de Bosques y Carbono y del Fiscal General de la Nación.

La Coordinación Interinstitucional para la unificación de esfuerzos y acciones en la lucha contra la deforestación y otros crímenes ambientales asociados, conformada por delegados del Ministro de Ambiente y Desarrollo Sostenible, del Ministro de Defensa Nacional y del Fiscal General de la Nación, así como el Director de la Corporación Autónoma Regional -o su delegado- de la zona para la que se planeen las intervenciones, en su calidad de autoridad ambiental.

Parágrafo 1°. Las acciones operativas y operacionales se desarrollarán de conformidad con la misión constitucional asignada a las Fuerzas Militares y la Policía Nacional, por conducto del Ministerio de Defensa Nacional, y de acuerdo con la Política de Defensa y Seguridad para la Legalidad, el Emprendimiento y la Equidad que establece que el agua, la biodiversidad y el medio ambiente son interés nacional principal y prevalente, en coordinación con las autoridades ambientales y judiciales competentes.

Parágrafo 2°. El Estado colombiano se obliga a partir de la presente Ley a establecer y ejecutar políticas públicas en el territorio nacional, encaminadas a concretar acciones para detener la deforestación e implementar las nuevas estrategias de reforestación y forestación. Las anteriores políticas públicas se deben desarrollar y ejecutar en el marco de la legalidad, emprendimiento y equidad.

Artículo 10. Conservación de bosques en la Región de la Amazonía.

De los recursos provenientes del impuesto al carbono, concretamente del rubro “Colombia en Paz”, se destinará el 15% exclusivo para la conservación de los bosques de la región de la Amazonia; toda vez que esta región contiene la mayor extensión de bosques a nivel nacional, constituyendo al territorio como un centro de desarrollo económico y ambiental sostenible para el país, por la biodiversidad que alberga. Con su preservación coadyuva en forma positiva a revertir el desequilibrio ecológico que existe actualmente por el impacto de las actividades humanas sobre el entorno.

Artículo 11. Recursos para la conservación de los páramos.

Los recursos de que tratan los artículos 43 y 45 de la Ley 99 de 1993, modificados por la Ley 1930 de 2018, que le correspondan a las Corporaciones Autónomas Regionales y a los municipios y, que sean destinados a la conservación de los páramos, constituyen rentas propias de estas autoridades por lo que no ingresarán al Fondo Nacional Ambiental (FONAM).

Los recursos que le correspondan a Parques Nacionales Naturales ingresarán a la subcuenta para la administración y manejo del Sistema de Parques Nacionales del FONAM. En todo caso los recursos de los que trata este artículo se destinarán exclusivamente a la preservación, restauración, uso sostenible y generación de conocimiento de los páramos.

Artículo 12. Autorización ambiental para plantas de procesamiento móviles para la obtención de oro libre de mercurio.

El Gobierno nacional a través del Ministerio de Ambiente y Desarrollo Sostenible reglamentará la autorización ambiental diferencial para la operación de plantas de procesamiento móviles para la obtención de oro libre de mercurio. En la reglamentación se deberá tener en cuenta entre otras cosas, el uso de los recursos naturales renovables que se requieren para el proceso de beneficio, la duración de la misma, velando por conservar el ambiente.

Artículo 13. Requerimiento de permiso de vertimiento.

Solo requiere permiso de vertimiento la descarga de aguas residuales a las aguas superficiales, a las aguas marinas o al suelo.

Artículo 14. Tratamiento de aguas residuales.

Los prestadores de alcantarillado estarán en la obligación de permitir la conexión de las redes de recolección a las plantas de tratamiento de aguas residuales de otros prestadores y de facturar esta actividad en la tarifa a los usuarios, siempre que la solución represente menores costos de operación, administración, mantenimiento e inversión a los que pueda presentar el prestador del servicio de alcantarillado. El Gobierno nacional reglamentará la materia.

Adicionalmente, la disposición de residuos líquidos no domésticos a la red de alcantarillado sin tratamiento podrá ser contratada entre el suscriptor y/o usuario y el prestador del servicio público domiciliario de alcantarillado siempre y cuando este último tenga la capacidad en términos de infraestructura y tecnología para cumplir con los parámetros y los valores límites máximos permisibles en los vertimientos puntuales.

Artículo 15.Funciones de la Superintendencia.

Modifíquese el numeral 8 y adiciónense los numerales 34, 35 y 36 al artículo 79 de la Ley 142 de 1994, así:

8. Solicitar documentos, inclusive contables y financieros, a los prestadores, entidades públicas, privadas o mixtas, auditores externos, interventores o supervisores y privados, entre otros, que tengan información relacionada con la prestación de los servicios públicos domiciliarios. Adicionalmente, practicar las visitas, inspecciones y pruebas que sean necesarias para el cumplimiento de sus funciones, en la oportunidad fijada por la Superintendencia.

34. Sancionar a los prestadores de servicios públicos y vigilados, auditores externos y otras entidades con naturaleza pública, privada o mixta, que tengan información relacionada con los servicios públicos domiciliarios, cuando no atiendan de manera oportuna y adecuada las solicitudes y requerimientos que la Superintendencia realice en ejercicio de sus funciones.

35. En los casos en los que lo considere necesario para el ejercicio de las funciones de inspección, vigilancia y control, encargar a terceros especializados la toma de muestras de calidad del agua en cualquier lugar del área de prestación del servicio y del sistema que sea técnicamente posible, y contratar un laboratorio para el análisis de las mismas. Los resultados que arrojen las muestras tomadas por la Superintendencia de Servicios Públicos Domiciliarios, podrán ser utilizados como prueba, dentro de los procesos administrativos sancionatorios que adelante contra prestadores objeto de su vigilancia, y para cualquier otro fin que sea pertinente dentro del ejercicio de las funciones de la Superintendencia de Servicios Públicos Domiciliarios.

36. Corresponde a la Superintendencia de Servicios Públicos Domiciliarios, en desarrollo de sus funciones de inspección y vigilancia, establecer, administrar, mantener y operar el Sistema Único de Información (SUI) de los Servicios Públicos Domiciliarios que se nutra con la información de los prestadores, auditores externos, entidades públicas, particulares, interventores y/o supervisores relacionados con la prestación de los servicios públicos domiciliarios. El SUI podrá interoperar con otras plataformas públicas y privadas y, adicionalmente, podrá compartir información, inclusive aquella que tenga el carácter de confidencial o reservado, garantizando la reserva y confidencialidad de la misma.

Artículo 16. Fortalecimiento del ejercicio de las funciones de la Superintendencia de Servicios Públicos Domiciliarios.

Modifíquese el artículo 227 de la Ley 1753 del 2015, el cual quedará así:

Artículo 227. Fortalecimiento del ejercicio de las funciones de la superintendencia de servicios públicos domiciliarios. En la Superintendencia de Servicios Públicos Domiciliarios seguirá funcionando, con vocación de permanencia, el Fondo Empresarial creado por la Ley 812 del 2003, a través de un patrimonio autónomo cuyo ordenador del gasto será el Superintendente de Servicios Públicos Domiciliarios.

Este Fondo podrá financiar a las empresas en toma de posesión para: 1) pagos para la satisfacción de los derechos de los trabajadores que se acojan a los planes de retiro voluntario y en general las obligaciones laborales y, 2) apoyo para salvaguardar la prestación del servicio.

Igualmente, podrá contratar y/o apoyar el pago de las actividades profesionales requeridas en áreas financieras, técnicas, legales y logísticas a la Superintendencia de Servicios Públicos Domiciliarios y a la empresa objeto de toma de posesión, así como los estudios necesarios para determinar la procedencia de dicha medida y las medidas preventivas de acuerdo con lo establecido en la Ley 142 de 1994.

Así mismo, de forma excepcional el Fondo podrá apoyar con recursos a las empresas prestadoras de servicios públicos objeto de la medida de toma de posesión para asegurar la viabilidad de los respetivos esquemas de solución a largo plazo sin importar el resultado en el balance del Fondo de la respectiva operación, siempre y cuando así lo soliciten ante la Superintendencia de Servicios Públicos Domiciliarios y acrediten:

1. Incapacidad presente y futura de pago de los recursos entregados previamente a título de financiación, con cargo a los recursos del Fondo Empresarial soportada con las modelaciones financieras y demás elementos que lo demuestren.

2. Contar con un esquema de solución de largo plazo que cumpla con los criterios que para el efecto establezca la Superintendencia de Servicios Públicos Domiciliarios, y

3. El esquema de solución de largo plazo a que hace referencia el numeral anterior solo pueda ser cumplible con la entrega de los recursos mencionados por parte del Fondo, los cuales se considerarán como un ingreso no constitutivo de renta ni ganancia ocasional para las empresas en toma de posesión.

Lo anteriormente señalado también será aplicable a las empresas que a la entrada en vigencia de la presente Ley se encuentren en toma de posesión.

Los recursos del Fondo Empresarial estarán conformados por las siguientes fuentes:

a) Los excedentes de la Superintendencia de Servicios Públicos Domiciliarios, de la Comisión de Regulación de Agua Potable y Saneamiento Básico (CRA), de la Comisión de Regulación de Energía y Gas (CREG);

b) El producto de las multas que imponga esta Superintendencia;

c) Los rendimientos que genere el Fondo Empresarial y que se obtengan por la inversión de los recursos que integran su patrimonio;

d) Los recursos que obtenga a través de las operaciones de crédito interno o externo que se celebren a su nombre, y los que reciba por operaciones de tesorería;

e) Los rendimientos derivados de las acciones que posea el Fondo o su enajenación los cuales no estarán sometidos al impuesto sobre la renta y complementarios; y,

f) Los demás que obtenga a cualquier título.

El financiamiento por parte del Fondo Empresarial a las empresas intervenidas podrá instrumentarse a través de contratos de mutuo, otorgamiento de garantías a favor de terceros, o cualquier otro mecanismo de carácter financiero que permita o facilite el cumplimiento del objeto del Fondo Empresarial.

Para las operaciones pasivas de crédito interno o externo del literal d) se requerirá si cumplimiento de los requisitos legales ordinarios establecidos para las operaciones de crédito; cuando dichas operaciones de crédito estén dirigidas al desarrollo del giro ordinario de las actividades propias del objeto del Fondo Empresarial para el otorgamiento de la garantía de la Nación no será necesario la constitución de las contragarantías a favor de la Nación normalmente exigidas, ni los aportes al Fondo de Contingencias; para los créditos otorgados directamente por la Nación – Ministerio de Hacienda y Crédito Público no será necesario el otorgamiento de garantías a su favor.

Artículo 17.Definiciones. Adiciónese un Parágrafo al artículo 14 de la Ley 142 de 1994, así:

Parágrafo. Las actividades que inciden determinantemente en la correcta prestación de los servicios públicos se podrán asimilar a alguna de las actividades principales o complementarias que componen las cadenas de valor de los servicios públicos. En consecuencia, quienes desarrollen tales nuevas actividades quedarán sometidos a la regulación, inspección, vigilancia y control por parte de las Comisiones de Regulación respectivas y la Superintendencia de Servicios Públicos Domiciliarios, respectivamente. La Superintendencia de Servicios Públicos Domiciliarios definirá cuándo aplica dicha asimilación y la obligación de constituirse como Empresas de Servicios Públicos Domiciliarios.

Artículo 18.

Declarado Inexequible mediante Sentencia de la Corte Constitucional C-464 de 2020

Artículo 19. Sanciones.

Modifíquese el numeral 81.2 del artículo 81 de la Ley 142 de 1994, el cual quedará así:

81.2 Multas desde 1 hasta 100.000 salarios mínimos legales mensuales vigentes al momento de la imposición de la sanción, a favor del Fondo Empresarial creado por la Ley 812 de 2003. El monto de la multa se graduará teniendo en cuenta: 1) el impacto de la infracción sobre la buena marcha del servicio público prestado, 2) el factor de reincidencia considerando el año inmediatamente anterior a la fecha de imposición de la sanción; y 3) La situación financiera de la empresa, para lo cual, se efectuará un análisis de los estados financieros del prestador con corte al 31 de diciembre del año inmediatamente anterior a la fecha de imposición de la sanción. Si la infracción se cometió durante varios años, el monto máximo que arriba se indica se podrá multiplicar por dicho número de años. Si el infractor no proporciona la información necesaria que se le solicite, para determinar el monto de la multa a imponer, dentro de los treinta (30) días siguientes al requerimiento formulado, se le aplicarán las otras sanciones previstas en este artículo.

La multa a imponer a una persona natural que colabore, facilite, autorice, ejecute o tolere conductas violatorias del régimen de los servicios públicos domiciliarios será de 1 hasta 1.500 salarios mínimos legales mensuales vigentes al momento de la imposición de la sanción. El monto de la multa se graduará teniendo en cuenta:

1) El impacto de la infracción sobre la buena marcha del servicio público prestado y/o sobre el oportuno y efectivo ejercicio de la función de inspección, vigilancia y control a cargo de la Superintendencia;

2) La persistencia en la conducta infractora;

3) El factor de reincidencia considerando el año inmediatamente anterior a la fecha de imposición de la sanción;

 4) La colaboración del investigado en el desarrollo de las funciones de inspección, control y vigilancia a cargo de la Superintendencia, y

5) El grado de participación de la persona implicada.

La facultad para imponer sanciones por la violación al régimen de los servicios públicos domiciliarios caducará a los cinco (5) años de producida la conducta, los cuales se contarán a partir del día siguiente de ocurrido el hecho generador de la sanción o de la última infracción, si la conducta se prolonga en el tiempo.

Artículo 20. Tarifa de cobros por los servicios técnicos de planeación de la UPME.

La Unidad de Planeación Minero Energética (UPME), en los términos del literal i) del artículo 16 de la Ley 143 de 1994, podrá cobrar a aquellas personas naturales o jurídicas que utilicen o soliciten los servicios técnicos de planeación y asesoría relacionados con las actividades de:

a) Evaluación de proyectos de eficiencia energética y fuentes no convencionales de energía y gestión eficiente de la energía, para acceder a los incentivos tributarios;

b) Evaluación de proyectos del sector energético para acceder a la línea de redescuento con tasa compensada de la Financiera de Desarrollo Territorial S.A. (FINDETER);

c) Emisión de conceptos sobre las conexiones al Sistema Interconectado Nacional, en el marco de la expansión de generación y transmisión de energía, de conformidad con la delegación efectuada por el Ministerio de Minas y Energía.

El sistema y método de cálculo de la tarifa incluirá:

a) El valor total de los honorarios de los profesionales requeridos para la realización de la tarea propuesta. Para este fin se estimará el número de profesionales/mes o contratistas/mes y se aplicarán las categorías y tarifas de honorarios de contratos de la UPME;

b) El valor total de los viáticos y gastos de viaje de los profesionales que se ocasionen para el estudio, la expedición, el seguimiento y/o el monitoreo del servicio técnico de planeación y demás instrumentos de control y manejo establecidos en la ley, las resoluciones internas y los reglamentos. Para este fin, sobre el estimativo de visitas a la zona del proyecto se calculará el monto de los gastos de viaje necesarios, valorados de acuerdo con las tarifas del transporte público y la escala de viáticos aplicable a la UPME.

Las tarifas que se cobrarán por concepto de la prestación de los servicios de planeación y asesoría descritos corresponderá a una tasa hasta de:

– El 1% de los beneficios tributarios solicitados por el usuario solicitante, en el caso de la evaluación de los proyectos de eficiencia energética y fuentes no convencionales de energía y gestión eficiente de la energía;

– El 1% del valor de los proyectos del sector energético a financiar con la línea de redescuento con tasa compensada de la Financiera de Desarrollo Territorial (S.A.) (FINDETER).

– 50 smlmv por solicitud de conexión al Sistema Interconectado Nacional.

Los recursos que se recauden por concepto del cobro de los citados servicios técnicos de planeación y asesoría de que trata el presente artículo, serán depositados en un patrimonio autónomo que la UPME constituirá a través de un contrato de fiducia mercantil que se someterá a las normas del derecho privado. Dichos recursos serán utilizados para sufragar los costos relacionados con la emisión de conceptos técnicos, la evaluación y el seguimiento en que deba incurrir la UPME para la prestación de estos servicios.

Artículo 21. Vigencia Fondos Eléctricos.

El Fondo de Apoyo Financiero para la Energización de Zonas Rurales Interconectadas (FAER) creado por el artículo 105 de la Ley 788 de 2002, el Programa de Normalización de Redes Eléctricas (PRONE) creado por el artículo 1° de la Ley 1117 de 2006 y el Fondo de Apoyo Financiero para la Energización de las Zonas No Interconectadas (FAZNI) de que trata el artículo 82 de la Ley 633 de 2000, tendrán vigencia hasta el 31 de diciembre de 2030.

Estos fondos recibirán recursos de conformidad con las condiciones y tarifas que se encuentran vigentes a la fecha de expedición de la presente Ley.

Artículo 22. Licencia Ambiental Temporal para la Formalización Minera.

Las actividades de explotación minera que pretendan obtener su título minero bajo el marco normativo de la formalización de minería tradicional o en virtud de la formalización que ocurra con posterioridad a las declaratorias y delimitaciones de áreas de reserva especial o que pretendan ser cobijadas a través de alguno de los mecanismos para la formalización bajo el amparo de un título minero en la pequeña minería, deberán tramitar y obtener licencia ambiental temporal para la formalización minera.

Para el efecto, dentro de los tres meses siguiente a la firmeza del acto administrativo que autoriza el subcontrato de formalización, que aprueba la devolución de áreas para la formalización o que declara y delimita el área de reserva especial de que trata el artículo 31 de la Ley 685 de 2001, se deberá radicar por parte del interesado el respectivo Estudio de Impacto Ambiental junto con la solicitud de licencia ambiental temporal para la formalización minera.

Una vez radicado el Estudio de Impacto Ambiental, la autoridad ambiental, dentro de los treinta (30) días siguientes, se pronunciará, mediante acto administrativo, sobre la viabilidad o no de la licencia ambiental temporal para la formalización minera, la cual tendrá vigencia por el término de duración del trámite de formalización minera y dos (2) meses adicionales después de otorgado el contrato de concesión minera o la anotación del subcontrato en el Registro Minero Nacional, término en el cual deberá presentarse por el interesado la solicitud de licencia ambiental global o definitiva.

La autoridad ambiental que otorga la licencia ambiental temporal para la formalización minera, deberá hacer seguimiento y control a los términos y condiciones establecidos en ella y en caso de inobservancia de los mismos procederá a requerir por una sola vez al interesado, para que en un término no mayor a treinta (30) días subsane las faltas encontradas. Vencido este término, la autoridad ambiental se pronunciará, y en el evento en que el interesado no subsane la falta o no desvirtúe el incumplimiento, comunicará tal situación a la autoridad minera dentro de los cinco (5) días siguientes, a efectos de que dicha entidad proceda de manera inmediata al rechazo de la solicitud de formalización de minería tradicional o a la revocatoria del acto administrativo de autorización del subcontrato de formalización minera, de delimitación y declaración del Área de Reserva Especial o el de la aprobación de la devolución de áreas para la formalización. De la actuación que surta la autoridad minera se correrá traslado a la Policía Nacional, para lo de su competencia.

No obstante lo anterior, una vez otorgado el contrato de concesión minera o realizada la anotación en el Registro Minero Nacional del subcontrato de formalización, su titular deberá tramitar y obtener ante la autoridad ambiental competente la correspondiente licencia ambiental global o definitiva que ampare la actividad. Este trámite deberá ceñirse a los términos y condiciones establecidos en el Título VIII de la Ley 99 de 1993 y sus normas reglamentarias. En todo caso, el acto administrativo de inicio del trámite de la licencia ambiental global antes mencionado, extenderá la vigencia de la licencia ambiental temporal para la formalización hasta que la autoridad ambiental competente se pronuncie sobre la viabilidad o no de la licencia ambiental global o definitiva. El incumplimiento de los términos y condiciones aquí descritos serán causal de rechazo de la solicitudes de formalización de minería tradicional o del subcontrato de formalización minera o de revocatoria de los actos administrativos de aceptación de la devolución de áreas para la formalización o del de declaración y delimitación del Área de Reserva Especial o de caducidad del contrato de concesión minera, según sea el caso; así como de la imposición de las medidas preventivas y sancionatorias consagradas en la Ley 1333 de 2009.

En todo caso, tanto las autoridades ambientales competentes como la autoridad minera deberán observar de manera estricta el cumplimiento de los plazos establecidos en las normas que regulan los procesos del presente artículo.

El Ministerio de Ambiente y Desarrollo Sostenible deberá expedir los términos de referencia diferenciales para la elaboración del estudio de impacto ambiental de la licencia ambiental temporal para la formalización minera, teniendo en cuenta la particularidad de los procesos de formalización de que trata el presente artículo. Las autoridades ambientales competentes cobrarán los servicios de seguimiento ambiental que se efectúen a las actividades mineras durante la implementación de la licencia ambienta temporal para la formalización minera de conformidad con lo dispuesto en la Ley 633 de 2000, sin perjuicio del cobro del servicio de evaluación que se deba realizar para la imposición del instrumento de manejo y control ambiental que ampare la operación de estas actividades.

Las solicitudes de formalización de minería tradicional que presentaron plan de manejo ambiental no requerirán presentar el estudio de impacto ambiental, por lo tanto, la licencia ambiental temporal para la formalización se otorgará con fundamento en el mencionado plan. En el evento en que el plan de manejo ambiental haya sido aprobado, este será el instrumento de manejo y control ambiental que amparará el proceso.

Las solicitudes de formalización de minería tradicional que no hayan presentado plan de manejo ambiental, las áreas de reserva especial declaradas y delimitadas, los subcontratos de formalización autorizados y aprobados, y las devoluciones de áreas aprobadas para la formalización antes de la expedición de la presente ley, tendrán un plazo de tres (3) meses para presentar el estudio de impacto ambiental y la solicitud de licencia ambiental temporal para la formalización, contado a partir del día siguiente a la entrada en vigencia de los términos de referencia diferenciales para la elaboración del estudio de impacto ambiental de la licencia ambiental temporal para la formalización minera por parte del Ministerio de Ambiente y Desarrollo Sostenible.

Artículo 23. Cesión de derechos mineros.

La cesión de derechos emanados de un título minero requerirá solicitud por parte del beneficiario del título, acompañada del documento de negociación de la cesión de derechos. Esta solicitud deberá ser resuelta por la Autoridad Minera en un término de sesenta (60) días, en los cuales verificará los requisitos de orden legal y económico a que alude el artículo 22 de la Ley 1753 de 2015 o aquella que la sustituya o modifique. En caso de ser aprobada la cesión se inscribirá en el Registro Minero Nacional el acto administrativo de aprobación.

Artículo 24. Sistema de Cuadrícula en la Titulación Minera.

La implementación del sistema de cuadrículas se llevará a cabo de acuerdo con las normas de información geoespacial vigentes y los lineamientos que para el efecto defina la autoridad minera nacional.

Todas las solicitudes y propuestas se evaluarán con base en el sistema de cuadrícula minera implementado por la autoridad minera nacional. Por lo anterior no se permitirá la superposición de propuestas sobre una misma celda, con excepción de las concesiones concurrentes. Se entiende por celda el cuadro definido por la autoridad minera nacional como una unidad de medida para la delimitación del área de las solicitudes y contratos de concesión minera.

Los títulos mineros otorgados con anterioridad a la entrada en operación del sistema de cuadrícula o el que haga sus veces, migrará a este sistema manteniendo las condiciones y coordenadas en las que fueron otorgados, para lo cual se atenderá la metodología que para el efecto establezca la autoridad minera nacional.

Artículo 25. Prórrogas de los Contratos de Concesión Minera del Decreto 2655 de 1988.

Los Contratos de Concesión de Minería suscritos en vigencia del Decreto 2655 de 1988 podrán prorrogarse. Para el efecto, mínimo seis (6) meses antes de vencerse el período de explotación y encontrándose a paz y salvo con todas las obligaciones derivadas del contrato, el concesionario podrá solicitar la prórroga hasta por treinta (30) años, la cual no será automática.

La Autoridad Minera Nacional determinará si concede o no la prórroga, teniendo en cuenta la conveniencia de la misma para los intereses del Estado, de acuerdo con los criterios que para el efecto establezca dicha autoridad. Adicionalmente, podrá establecer nuevas condiciones contractuales y pactar nuevas contraprestaciones adicionales a las regalías.

Perfeccionada la prórroga, en los términos del artículo 77 de la Ley 685 de 2001 o la norma que la sustituya o modifique, el contrato prorrogado deberá cumplir con las normas ambientales vigentes. Las labores de explotación no se suspenderán mientras se perfeccione el nuevo contrato y se adecúen los instrumentos ambientales del contrato inicial, de acuerdo con lo que determine la autoridad ambiental.

Artículo 26. Liquidación de Contratos de Concesión Minera.

Los contratos de concesión minera de cualquier régimen deberán ser liquidados de mutuo acuerdo a su terminación y dentro del término fijado en el respectivo contrato, o dentro del que acuerden las partes para el efecto. De no existir tal término, la liquidación se realizará dentro de los doce (12) meses siguientes a la expedición del acto administrativo que declare su terminación.

En aquellos casos en que el contratista no se presente a la liquidación del contrato previa notificación o convocatoria por parte de la autoridad minera, o las partes no lleguen a un acuerdo, la entidad liquidará el contrato en forma unilateral mediante acto administrativo debidamente motivado dentro de los dos (2) meses siguientes a la convocatoria o a la falta de acuerdo, de conformidad con lo dispuesto en el artículo 141 del Código de Procedimiento Administrativo y de lo Contencioso Administrativo. Vencido el plazo anteriormente establecido sin la realización de la liquidación, la autoridad minera podrá liquidar el contrato en cualquier tiempo dentro de los dos (2) años siguientes de mutuo acuerdo o unilateralmente, sin perjuicio de lo previsto en el artículo 141 ibídem.

En el evento en que el concesionario minero presente salvedades en la liquidación por mutuo acuerdo, la liquidación unilateral solo procederá en los aspectos que no hayan sido objeto de acuerdo.

Artículo 27. Servidumbre minera.

El procedimiento para la imposición de servidumbres mineras será el previsto en la Ley 1274 de 2009.

Artículo 28. Liberación de áreas.

Las áreas que hayan sido objeto de una solicitud minera y que por cualquier causa queden libres, solo podrán ser objeto de propuesta de contrato de concesión trascurridos quince (15) días después de la firmeza del acto administrativo de rechazo o desistimiento o cualquiera otro que implique la libertad del área.

El área que haya sido objeto de un contrato de concesión minera, que termine por cualquier causa, solo se podrá desanotar del Catastro Minero Nacional dentro de los quince (15) días siguientes a la suscripción del acta de liquidación bilateral o a la liquidación unilateral del mismo. En el caso de los títulos mineros que no son objeto de liquidación se seguirán las reglas de este artículo sobre solicitudes mineras. El acto administrativo a que se refiere el inciso primero de este artículo, el que establece la liquidación del contrato, o el que da por terminado el título minero, deberán ser publicados en la página electrónica de la Autoridad Minera o en el medio que hiciere sus veces dentro de los cinco (5) días siguientes a la ejecutoria o firmeza del acto. Dentro de este último término deberá inscribirse en el Registro Minero Nacional.

Artículo 29. Reporte de Información al Ministerio de Minas y Energía.

El Ministerio de Minas y Energía en su calidad de administrador de los recursos destinados al pago de subsidios, a la ampliación de cobertura y a la mejora de calidad, entre otros, para la asignación de dichos recursos, además de la información reportada por los prestadores al Sistema Único de Información (SUI) podrá solicitar directamente a los prestadores del servicio público de energía la información que requiera, efectuar visitas, adelantar auditorías y realizar todas las gestiones necesarias para verificar la destinación de los recursos asignados.

Parágrafo. El Ministerio de Minas y Energía deberá presentar un informe anual al Congreso de la República sobre los recursos destinados para pago de subsidios y la destinación de los mismos para mejorar la ampliación, calidad y cobertura.

Artículo 30. Fortalecimiento de la Fiscalización, Seguimiento y Control de Actividades Mineras.

Las labores de exploración y explotación que se desarrollen a través de las figuras de reconocimientos de propiedad privada, autorizaciones temporales, áreas de reserva especial declaradas y delimitadas por la autoridad minera nacional, solicitudes de legalización y formalización minera y mecanismos de trabajo bajo el amparo de un título minero serán objeto de fiscalización.

Para la fiscalización de las actividades mineras que se desarrollan en los reconocimientos de propiedad privada, los beneficiarios deberán presentar en el mes de noviembre de cada año, un informe de las labores mineras ejecutadas en dicha anualidad y el programa de las que se realizarán en la siguiente. Así mismo, deberán cumplir con las normas de seguridad e higiene minera, con la declaración de producción de minerales y con la liquidación y pago de las regalías de manera trimestral. La autoridad minera establecerá el detalle de la información a presentar y los requisitos para su entrega.

Los beneficiarios de autorizaciones temporales deberán contar con la aprobación por parte de la autoridad minera, de un Plan de Trabajo de Explotación para la ejecución de sus actividades mineras y para su fiscalización. Los términos de referencia para la elaboración, contenido, evaluación y aprobación de este Plan se expedirán por la autoridad minera.

Mientras obtienen el contrato de concesión minera, las actividades mineras realizadas en las Áreas de Reserva Especial declaradas, en las solicitudes de legalización y de formalización minera, y en las devoluciones de áreas para la formalización minera, serán objeto de fiscalización respecto del cumplimiento de los reglamentos de seguridad e higiene minera y el pago de las regalías que genere la explotación. Las Áreas de Reserva Especial que cuenten con condiciones de seguridad e higiene minera y con instrumento ambiental diferencial, luego de su declaratoria, podrán ejecutar operaciones mineras sin restricción. El incumplimiento de las obligaciones establecidas en este inciso ocasionará la suspensión inmediata de las actividades de explotación y el rechazo de la solicitud o la terminación de la declaratoria de Área de Reserva Especial.

El incumplimiento de las obligaciones señaladas en los incisos segundo y tercero del presente artículo, serán objeto de multa en los términos previstos por los artículos 115 y 287 de la Ley 685 de 2001, sin perjuicio de las sanciones que, de acuerdo con la normativa ambiental, sean aplicables.

Artículo 31. Secretaría Técnica del OCAD Paz.

El Departamento Nacional de Planeación ejercerá la Secretaría Técnica del OCAD PAZ.

Artículo 32. Causales para adelantar el procedimiento correctivo y sancionatorio.

Modifíquese el literal a) del artículo 113 de la Ley 1530 de 2012, el cual quedará así:

a) Incumplir con la destinación legal de los recursos del Sistema General de Regalías.

SUBSECCIÓN 2. LEGALIDAD PARA LA TRANSPARENCIA DE LAS FINANZAS PÚBLICAS

Artículo 33. Funcionamiento del Fondo de Estabilización de Precios de los Combustibles (FEPC).

Para garantizar el funcionamiento y sostenibilidad del Fondo de Estabilización de Precios de los Combustibles (FEPC) el Ministerio de Hacienda y Crédito Público, como administrador del FEPC, podrá realizar directamente o a través de entidades especializadas, el diseño, gestión, adquisición y/o celebración de instrumentos y/o contratos de cobertura financiera sobre los precios del petróleo o de los combustibles líquidos en el mercado internacional, o sobre la tasa de cambio del peso colombiano por el dólar estadounidense.

Parágrafo 1°. Las decisiones de coberturas financieras previstas en este artículo deberán ser evaluadas de forma conjunta y en contexto con la función del FEPC, no por el desempeño de una operación individual sino como parte de una estrategia de estabilidad de los precios internos de los combustibles y de sostenibilidad del FEPC. En algunos periodos determinados por condiciones adversas del mercado, se podrán observar operaciones cuyos resultados sean iguales a cero o negativos por la naturaleza propia de las coberturas.

Parágrafo 2°. Los actos o contratos que se ejecuten para el control del riesgo de mercado y de crédito resultante de las operaciones o de la estrategia implementada según lo previsto en el presente artículo, se sujetarán a las normas del derecho privado aplicables a las mismas.

Artículo 34. Obligaciones a cargo del Fondo de Estabilización de Precios de los Combustibles (FEPC).

Las obligaciones derivadas de las cuentas por cobrar constituidas por la Nación al Fondo de Estabilización de Precios de los Combustibles (FEPC) creado por el artículo 69 de la Ley 1151 de 2007, prorrogado por el artículo 267 de la Ley 1753 de 2015, las cuales fueron autorizadas por la ley en contrapartida de la emisión de bonos u otros títulos de deuda pública, se entenderán extintas a partir del 31 de diciembre de 2019.

Para dar cumplimiento a lo establecido en el presente artículo, el Ministerio de Hacienda y Crédito Público realizará las operaciones necesarias para la extinción de la deuda de la que trata el presente artículo, y de sus respectivos intereses.

Artículo 35. Precio de los combustibles líquidos a estabilizar.

El Ministerio de Hacienda y Crédito Público y el Ministerio de Minas y Energía, o la entidad delegada, establecerá la metodología de cálculo del valor del ingreso al productor de los combustibles líquidos y biocombustibles, así como las tarifas y márgenes asociados a la remuneración de toda la cadena de transporte, logística, comercialización y distribución de dichos combustibles que hacen parte del mercado regulado. El Ministerio de Hacienda y Crédito Público podrá determinar el mecanismo de estabilización de los precios de referencia de venta al público de los combustibles regulados, así como los subsidios a los mismos, que se harán a través del Fondo de Estabilización de Precios de los Combustibles (FEPC). El mecanismo de estabilización previsto por el FEPC no afectará los impuestos de carácter territorial.

Parágrafo 1°. Las compensaciones al transporte, los subsidios, los incentivos tributarios y el mecanismo de estabilización de precios, podrán reconocerse y entregarse de manera general, focalizada o directa al consumidor final en la forma que determine el Gobierno nacional mediante el uso de nuevas tecnologías.

Parágrafo 2°. Dado que el sector de biocombustibles tiene relación directa con el sector agrícola y tiene un efecto oxigenante en los combustibles líquidos, el porcentaje de biocombustibles dentro de la mezcla de combustibles líquidos deberá ser regulado por el Ministerio de Agricultura y Desarrollo Rural, el Ministerio de Ambiente y Desarrollo Sostenible y el Ministerio de Minas y Energía.

Artículo 36. Administración eficiente de recursos públicos.

Modifíquese el artículo 149 de la Ley 1753 de 2015, el cual quedará así:

Artículo 149. Administración eficiente de recursos públicos. Los recursos provenientes del Presupuesto General de la Nación transferidos a entidades financieras no podrán tener como objeto proveerlas de fondos sino atender los compromisos y obligaciones en desarrollo del objeto de las apropiaciones presupuestales.

En consecuencia, los saldos de recursos girados a entidades financieras que no se encuentren respaldando compromisos u obligaciones del Presupuesto General de la Nación deberán ser reintegrados a la entidad estatal respectiva, de conformidad con la reglamentación que expida el Ministerio de Hacienda y Crédito Público. Los saldos así reintegrados podrán ser requeridos nuevamente para gastos referentes al cumplimiento de su objeto, sin que implique operación presupuestal alguna.

Los rendimientos financieros originados con recursos de la Nación deben consignarse en la Dirección General de Crédito Público y Tesoro Nacional, con excepción de aquellos rendimientos en los que la Ley haya determinado específicamente su tratamiento.

Cuando los negocios fiduciarios utilicen la creación de subcuentas, subprogramas, subproyectos, o cualquier otra modalidad de clasificación, deberán implementar de manera temporal la unidad de caja, sin afectar los derechos de los beneficiarios del negocio jurídico, para buscar eficiencia en el manejo de los recursos que les sitúa la Nación.

Parágrafo 1°. Además de lo dispuesto en los incisos primero y segundo del artículo 261 de la Ley 1450 de 2011, las entidades estatales del orden nacional que administren contribuciones parafiscales y los órganos de previsión y seguridad social que administren prestaciones sociales de carácter económico, podrán formar parte del Sistema de Cuenta Única Nacional.

Parágrafo 2°. La Dirección General de Crédito Público y Tesoro Nacional podrá administrar excedentes de liquidez de entidades estatales de cualquier orden a través de depósitos en administración, de conformidad con la reglamentación que expida el Ministerio de Hacienda y Crédito Público.

Parágrafo 3°. Lo establecido en el inciso segundo de la presente disposición aplicará de manera especial para los recursos del Fondo de Reserva para la Estabilización de la Cartera Hipotecaria (FRECH) de que tratan los artículos 48 y 49 de la Ley 546 de 1999 y el artículo 88 de la Ley 1151 de 2017, así como para los recursos del Subsidio de Vivienda de Interés Social Rural (SVISR) depositados por el Banco Agrario, de conformidad con lo establecido en el Capítulo 1 del Título 1 de la Parte 2 del Libro 2 del Decreto 1071 de 2015 y sus normas modificatorias.

Artículo 37. Administración de activos y pasivos financieros.

El Ministerio de Hacienda y Crédito Público, a través de la Dirección General de Crédito Público y Tesoro Nacional será la encargada de administrar los activos y pasivos financieros de la Nación de forma directa y los activos financieros de los demás entes públicos por delegación de las entidades respectivas.

Para tal efecto, facúltese a la Dirección General de Crédito Público y Tesoro Nacional del Ministerio de Hacienda y Crédito Público para que realice las siguientes operaciones: compra y venta de títulos valores emitidos por la Nación, el Banco de la República, Fondo de Garantías de Instituciones Financieras (FOGAFÍN), entidades sujetas al control y vigilancia de la Superintendencia Financiera de Colombia y otros gobiernos y tesorerías; compra de deuda de la Nación; compras con pacto de retroventa, operaciones repo, simultáneas y transferencia temporal de valores con entidades públicas y con entidades financieras sujetas al control y vigilancia de la Superintendencia Financiera de Colombia; depósitos remunerados e inversiones financieras en entidades sujetas al control y vigilancia de la Superintendencia Financiera de Colombia; depósitos a término y compras de títulos emitidos por entidades bancadas y financieras del exterior; inversiones en instrumentos del mercado monetario administrados por entidades financieras del exterior; operaciones de cubrimiento de riesgos; préstamos transitorios a dicha Dirección General cuyo plazo se podrá prorrogar antes de su vencimiento, depósitos en administración de recursos de las entidades estatales de cualquier orden, eventos que no implican unidad de caja; préstamos de títulos valores a la citada Dirección a tasas de mercado; y las demás que autorice el Gobierno nacional.

Parágrafo 1°. Las operaciones de las que trata este artículo, así como los actos y contratos necesarios para su ejecución, se sujetarán a las normas de derecho privado y se podrán atender con cargo al servicio de la deuda si lo apropiado por los rendimientos de la colocación de los excedentes de la Dirección General de Crédito Público y Tesoro Nacional, fuera insuficiente.

Parágrafo 2°. En el manejo de los excedentes de liquidez, la Dirección General de Crédito Público y Tesoro Nacional podrá otorgar créditos de tesorería hasta por el plazo de un año a las entidades descentralizadas del orden nacional, de conformidad con los criterios técnicos y condiciones que establezca el Ministerio de Hacienda y Crédito Público.

Artículo 38. Orientación del gasto a resultados.

Modifíquese el artículo 148 de la Ley 1753 de 2015, el cual quedará así:

Artículo 148. Presupuesto orientado a resultados. La programación presupuestal debe orientarse a resultados, promover el uso eficiente y transparente de los recursos públicos y establecer una relación directa entre el ingreso, el gasto y los bienes y servicios entregados a la ciudadanía. Para el efecto, el presupuesto debe clasificarse mediante programas definidos que serán insumo para la elaboración de los planes de desarrollo y los planes plurianuales de inversión.

La información sobre programación y ejecución presupuestal de los recursos de inversión de las entidades públicas del orden nacional y territorial debe reportarse a través del sistema de información unificada establecido para tal fin, de acuerdo con los lineamientos definidos para el efecto por el Departamento Nacional de Planeación.

El presupuesto orientado a resultados y la clasificación por programas aplicará a la Nación, a las entidades territoriales y, a todas las fuentes de financiación del gasto público, de acuerdo con cada uno de los Planes de Desarrollo Territorial (PDT) vigentes.

Artículo 39. Saneamiento Contable de los Estados Financieros de la Nación.

Con el fin de lograr el saneamiento contable de los estados financieros de la Nación, el Ministerio de Hacienda y Crédito Público hará los registros contables para depurar y castigar los saldos derivados de embargos judiciales por procesos ejecutivos decretados en contra de las diferentes entidades públicas, antes del 28 de febrero de 1995 y que recayeron contra el Tesoro Nacional – Cuenta Cajero del Banco de la República.

Artículo 40. Saneamiento de títulos de bienes inmuebles de la nación y entidades extintas o inexistentes del orden nacional.

Los bienes inmuebles cuyos títulos de propiedad actualmente figuren en cabeza de entidades, establecimientos públicos, empresas industriales o comerciales del orden nacional, ya extintas o inexistentes o aparezcan asignados de manera indefinida o genérica a nombre de la Nación o el Estado colombiano, o cualquier expresión equivalente en su momento, se inscribirán por las autoridades registrales a título de asignación a nombre del Ministerio y/o Departamento Administrativo cabeza del último sector al que perteneció o debió pertenecer la entidad en ellos mencionada o al Ministerio cuyas funciones estén relacionadas con el objeto o destino del respectivo bien.

Para lo anterior, el Ministerio de Hacienda y Crédito Público determinará mediante acto administrativo motivado el Ministerio y/o Departamento Administrativo al que será asignado el inmueble. Si el inmueble no se requiere para la prestación de algún servicio a cargo del Gobierno nacional será asignado a la Central de Inversiones S.A. (CISA). En caso de no poderse determinar la entidad a la que pertenecía o el sector al cual estaba destinado el uso del bien, la titularidad del mismo quedará en cabeza del Ministerio de Hacienda y Crédito Público, mientras se efectúa la asignación mencionada. El registro de este acto no generará impuestos, tasas o contribuciones.

Parágrafo. Se exceptúa de lo dispuesto en este artículo los bienes baldíos rurales.

Artículo 41. De las modalidades de selección.

Modifíquese el Parágrafo 5° del artículo 2° de la Ley 1150 de 2007, el cual quedará así:

Parágrafo 5°. Los acuerdos marco de precios a que se refiere el inciso 2 del literal a) del numeral 2 del presente artículo, permitirán fijar las condiciones de oferta para la adquisición o suministro de bienes y servicios de características técnicas uniformes y de común utilización a las entidades estatales durante un período de tiempo determinado, en la forma, plazo y condiciones de entrega, calidad y garantía establecidas en el acuerdo.

La selección de proveedores como consecuencia de la realización de un acuerdo marco de precios, le dará a las entidades estatales que suscriban el acuerdo, la posibilidad que mediante órdenes de compra directa, adquieran los bienes y servicios ofrecidos.

En consecuencia, entre cada una de las entidades que formulen órdenes directas de compra y el respectivo proveedor, se constituirá un contrato en los términos y condiciones previstos en el respectivo acuerdo.

El Gobierno nacional señalará la entidad o entidades que tendrán a su cargo el diseño, organización y celebración de los acuerdos marco de precios. El reglamento establecerá las condiciones bajo las cuales el uso de acuerdos marco de precios, se hará obligatorio para todas las entidades sometidas al Estatuto General de Contratación de la Administración Pública.

Los Organismos Autónomos, las Ramas Legislativa y Judicial y las entidades territoriales en ausencia de un acuerdo marco de precios diseñado por la entidad que señale el Gobierno nacional, podrán diseñar, organizar y celebrar acuerdos marco de precios propios.

Artículo 42. Transparencia en contratación de mínima cuantía.

Adiciónese el Parágrafo 3° al artículo 94 de la Ley 1474 de 2011, así:

Parágrafo 3°. En aquellos eventos en que las entidades estatales deban contratar bienes o servicios de características técnicas uniformes que se encuentren en un acuerdo marco de precios y cuyo valor no exceda del diez por ciento (10%) de la menor cuantía, las entidades deberán realizar la adquisición a través de la Tienda Virtual del Estado Colombiano, siempre que el bien o servicio esté disponible por ese medio.

Las entidades que no se encuentren obligadas a hacer uso del acuerdo marco de precios igualmente podrán utilizar esta figura antes que la selección por mínima cuantía.

Artículo 43. Inhabilidad por incumplimiento reiterado. Modifíquese el artículo 90 de la Ley 1474 de 2011, el cual quedará así:

Artículo 90. Inhabilidad por incumplimiento reiterado. Quedará inhabilitado el contratista que incurra en alguna de las siguientes conductas:

a) Haber sido objeto de imposición de cinco (5) o más multas durante la ejecución de uno o varios contratos, con una o varias entidades estatales, durante los últimos tres (3) años;

b) Haber sido objeto de declaratorias de incumplimiento contractual en por lo menos dos (2) contratos, con una o varias entidades estatales, durante los últimos tres (3) años;

c) Haber sido objeto de imposición de dos (2) multas y un (1) incumplimiento durante una misma vigencia fiscal, con una o varias entidades estatales.

La inhabilidad se extenderá por un término de tres (3) años, contados a partir de la publicación del acto administrativo que impone la inscripción de la última multa o incumplimiento en el Registro Único de Proponentes, de acuerdo con la información remitida por las entidades públicas. La inhabilidad pertinente se hará explícita en el Registro Único de Proponentes cuando a ello haya lugar.

Parágrafo. La inhabilidad a que se refiere el presente artículo se extenderá a los socios de sociedades de personas a las cuales se haya declarado esta inhabilidad, así como a las sociedades de personas de las que aquellos formen parte con posterioridad a dicha declaratoria.

Artículo 44. Enajenación de participaciones minoritarias de las entidades estatales.

Modifíquese el artículo 258 de la Ley 1450 de 2011, modificado por el artículo 162 de la Ley 1753 de 2015, el cual quedará así:

Artículo 258. Enajenación de participaciones minoritarias de las entidades estatales. Las entidades estatales de cualquier orden o rama podrán enajenar directamente o a través del colector de activos de la Nación, Central de Inversiones (CISA), únicamente aquellas participaciones accionarias en las cuales la propiedad de las mismas haya sido producto de un acto en el que no haya mediado la voluntad expresa de la entidad pública o que provengan de una dación en pago y, siempre y cuando esta participación no supere el cuarenta y nueve por ciento (49%) de la propiedad accionaria de la sociedad. En todo caso, y previo a enajenar las mismas, la entidad propietaria de la participación accionaria deberá comprobar que la propiedad accionaria que ostenta fue producto de un acto en el que no medió la voluntad expresa de la entidad pública o que provino de una dación en pago. Cuando la entidad opte por enajenar la participación en una sociedad deberá dar aplicación al régimen societario al que se encuentra sometida.

En el evento en que las entidades a que se refiere este artículo opten por enajenar directamente su participación en una empresa, la valoración de la participación deberá contar con las siguientes aprobaciones:

i) Las entidades que hacen parte del sector central del orden nacional deberán contar con la no objeción del Ministerio de Hacienda y Crédito Público,

ii) Las entidades que hacen parte del sector descentralizado del orden nacional deberán contar con la aprobación de la junta directiva de la respectiva entidad, y,

iii) las entidades territoriales de cualquier orden deberán contar con la aprobación del representante de la respectiva entidad.

En los casos en que las entidades a que se refiere este artículo decidan adelantar el proceso de enajenación a través de CISA, este se efectuará conforme al modelo de valoración y al procedimiento establecido por CISA, teniendo en cuenta las condiciones de mercado. Es este caso, la entidad estatal y CISA podrán suscribir un convenio / contrato interadministrativo en el cual se pactará entre otros: i) El valor y forma de pago de la remuneración de CISA, que podrá ser descontado del valor de la venta, ii) Los métodos de valoración, que se adelantarán siguiendo al efecto el modelo de valoración y el procedimiento establecido por CISA, para lo cual esta última podrá contratar a un tercero que desarrolle actividades de banca de inversión con el fin de que adelante y/o apoye el proceso de valoración.

Las entidades a que hace referencia este artículo podrán, a través de CISA, enajenar las acciones que hubieren adquirido con anterioridad a la expedición de esta Ley o aquellas que adquieran posteriormente.

Artículo 45. Extensión de la medida cautelar.

Adiciónese el siguiente Parágrafo al artículo 100 de la Ley 1708 de 2014, así:

Parágrafo. La extensión de la medida cautelar a que se refiere este artículo aplica aunque los bienes no hayan sido plenamente individualizados por la Fiscalía General de la Nación. Los efectos de este artículo aplicarán a los procesos iniciados antes de la entrada en vigencia de la presente Ley. En consecuencia, el administrador del FRISCO estará habilitado para solicitar a las autoridades con funciones de registro, la inscripción de las medidas cautelares a los bienes donde opere el fenómeno, siempre que la medida cautelar recaiga en el 100% de la participación accionaria.

Artículo 46. Del Fondo Adaptación.

Modifíquese el artículo 155 de la Ley 1753 de 2015, el cual quedará así:

Artículo 155. Del Fondo Adaptación. El Fondo Adaptación, creado mediante Decreto-Ley 4819 de 2010, hará parte del Sistema Nacional de Gestión del Riesgo de Desastres en los términos de la Ley 1523 de 2012.

Los contratos que celebre el Fondo Adaptación para ejecutar los recursos destinados al programa de reducción de la vulnerabilidad fiscal ante desastres y riesgos climáticos, se regirán por el derecho privado. Lo anterior, con plena observancia de lo dispuesto en el artículo 13 de la Ley 1150 de 2007, sin perjuicio de la facultad de incluir las cláusulas excepcionales a que se refieren los artículos 14 a 18 de la Ley 80 de 1993 y de aplicar lo dispuesto en los artículos 11 y 17 de la Ley 1150 de 2007, a partir del 1° de enero de 2020 los procesos contractuales que adelante el Fondo Adaptación se regirán por lo previsto por la Ley 80 de 1993 y la Ley 1150 de 2007.

Con el propósito de fortalecer y contribuir a la reducción de la vulnerabilidad fiscal del Estado, el Fondo Adaptación podrá estructurar y ejecutar proyectos integrales de reducción del riesgo y adaptación al cambio climático, en el marco del Sistema Nacional de Gestión del Riesgo de Desastres o del Plan Nacional de Adaptación y de la Política Nacional de Cambio Climático, o su equivalente, en coordinación con los respectivos sectores.

Parágrafo. Será responsabilidad de las entidades del orden nacional y territorial beneficiarías de los proyectos a cargo del Fondo Adaptación, garantizar su sostenibilidad y la puesta en marcha de los mecanismos jurídicos, técnicos, financieros y operacionales necesarios para su adecuada implementación.

Artículo 47. Régimen patrimonial.

Adiciónese el literal f) al numeral 2 del artículo 319 del Estatuto Orgánico del Sistema Financiero, así:

f) Cuando de acuerdo con consideraciones técnicas referidas a la suficiencia de una reserva, la Junta Directiva del Fondo de Garantías de Instituciones Financieras lo considere necesario, podrá adoptar un plan para incrementarla de manera temporal. Para dicha finalidad, con base en estos criterios, podrá incrementar la prima por encima del límite previsto en el artículo 323 de este Estatuto.

Artículo 48. Garantías para bonos hipotecarios para financiar cartera VIS subsidiable y para títulos emitidos en procesos de titularización de cartera VIS subsidiable.

Modifíquese el inciso primero del artículo 30 de la Ley 546 de 1999, el cual quedará así:

Garantías para bonos hipotecarios para financiar cartera VIS subsidiable y para títulos emitidos en procesos de titularización de cartera VIS subsidiable. El Gobierno nacional, a través del Fondo Nacional de Garantías (FNG), otorgará garantías para los bonos hipotecarios para financiar cartera VIS subsidiable y para títulos emitidos en procesos de titularización de cartera VIS subsidiable, que emitan los establecimientos de crédito, en los términos y con las condiciones que señale el Gobierno nacional.

Artículo 49. Cálculo de valores en UVT.

A partir del 1° de enero de 2020, todos los cobros, sanciones, multas, tasas, tarifas y estampillas, actualmente denominados y establecidos con base en el salario mínimo mensual legal vigente (smmlv), deberán ser calculados con base en su equivalencia en términos de la Unidad de Valor Tributario (UVT). En adelante, las actualizaciones de estos valores también se harán con base en el valor de la UVT vigente.

Parágrafo. Los cobros, sanciones, multas, tasas, tarifas y estampillas, que se encuentren ejecutoriados con anterioridad al 1° de enero de 2020 se mantendrán determinados en smmlv.

Artículo 50. Transferencia de participaciones en organismos internacionales.

Autorícese al Banco de la República para transferir al Gobierno nacional las participaciones (aportes, contribuciones y suscripciones) en organismos internacionales que no constituyan activos de reservas internacionales y los pasivos relacionados con las mismas. Esta operación se efectuará por el valor en libros en la fecha de la operación, con cargo al patrimonio del Banco de la República.

Artículo 51. Gastos de personal de entidades públicas del orden nacional.

Las modificaciones a los gastos de personal de las entidades públicas nacionales no podrán afectar programas y servicios esenciales a cargo de la respectiva entidad. Así mismo, deberán guardar consistencia con el Marco Fiscal de Mediano Plazo, el Marco de Gasto de Mediano Plazo del respectivo sector, y garantizar el cumplimiento de la regla fiscal establecida en la Ley 1473 de 2011. El Ministerio de Hacienda y Crédito Público verificará el cumplimiento de estas condiciones y otorgará la viabilidad presupuestal.

 Artículo 52. Marco fiscal de mediano plazo para entidades territoriales.

Adiciónese el literal h) y un Parágrafo al artículo 5° de la Ley 819 de 2003, así:

h) Incorporar en su Marco Fiscal de Mediano Plazo el análisis de la situación financiera de las entidades del sector descentralizado y hacer ejercicios de simulación sobre el impacto que puedan tener los resultados de dichas entidades en las finanzas de la entidad territorial y en los indicadores de las normas de responsabilidad fiscal territorial.

Parágrafo. El Marco Fiscal de Mediano Plazo de las entidades territoriales deberá contener la descripción de las estrategias e instrumentos para garantizar su cumplimiento. Los concejos municipales y asambleas departamentales al aprobar el presupuesto y el plan de inversiones del plan de desarrollo tendrán en cuenta que estos sean consistentes con el Marco Fiscal de Mediano Plazo de la entidad territorial.

Artículo 53. Pago de sentencias o conciliaciones en mora.

Durante la vigencia de la presente Ley, la Nación podrá reconocer como deuda pública las obligaciones de pago originadas en sentencias o conciliaciones debidamente ejecutoriadas y los intereses derivados de las mismas, que se encuentren en mora en su pago a la fecha de expedición de la presente Ley. Este reconocimiento operará exclusivamente para las entidades que hagan parte del Presupuesto General de la Nación y por una sola vez. En estos casos, dichas obligaciones de pago serán reconocidas y pagadas bien sea con cargo al servicio de deuda del Presupuesto General de la Nación o mediante la emisión de Títulos de Tesorería TES Clase B.

Para el cumplimiento de lo señalado en este artículo y con el objetivo de suministrar la respectiva liquidez, la Dirección General de Crédito Público y Tesoro Nacional del Ministerio de Hacienda y Crédito Público administrará, en una cuenta independiente el cupo de emisión de TES que se destine a la atención de las obligaciones de pago originadas en sentencias o conciliaciones ejecutoriadas, y los intereses derivados de las mismas. Para estos efectos, la Dirección General de Crédito Público y Tesoro Nacional estará facultada para realizar las operaciones necesarias en el mercado monetario y de deuda pública.

En todo caso, las entidades de las que trata el inciso primero de este artículo deberán tener en cuenta:

1. La veracidad, oportunidad, verificación de los requisitos para el pago de las obligaciones, así como la responsabilidad de adelantar las gestiones pertinentes radica exclusivamente en cada una de las entidades, sin que implique responsabilidad alguna para las demás entidades que participan en el proceso de pago de las sentencias o conciliaciones, de conformidad con lo que para el efecto defina el Gobierno nacional. El incumplimiento de lo dispuesto en este numeral acarreará las sanciones penales, disciplinarias y fiscales a que haya lugar.

2. El cumplimiento de lo dispuesto en el artículo 262 de la Ley 1819 de 2016.

3. Podrán celebrar acuerdos de pago o conciliaciones extrajudiciales con los beneficiarios finales, respecto de los montos adeudados.

4. La responsabilidad por el pago de las obligaciones es exclusivamente de la entidad. El Gobierno nacional reglamentará la materia.

Parágrafo 1°. La emisión de Títulos de Tesorería TES Clase B de que trata el presente artículo no implica operación presupuestal y solo debe presupuestarse para efectos del pago de intereses y la redención de los títulos.

Parágrafo 2°. Las entidades del Presupuesto General de la Nación de las que trata el presente artículo deberán suscribir con el Ministerio de Hacienda y Crédito Público los acuerdos de pago para asumir el principal e intereses de los títulos con cargo a sus presupuestos de gasto y procederán con los registros contables que sean del caso para extinguir dichas obligaciones.

Artículo 54. Autorización para el uso de recursos de mayor recaudo.

Los recursos incorporados en el presupuesto bienal del Sistema General de Regalías a través del artículo 7° de la Ley 1942 de 2018, no estarán imitados por lo dispuesto en el artículo 40 de la misma Ley.

Artículo 55. Fondo DIAN para Colombia.

Créase un patrimonio autónomo denominado Fondo DIAN para Colombia, administrado por el Ministerio de Hacienda y Crédito Público o por la entidad o entidades que esta decida, y para el efecto estas entidades se encuentran facultadas para celebrar el espectivo contrato de fiducia mercantil. Este Fondo tendrá por objeto la financiación y/o la inversión del programa de modernización de la Dirección de Impuestos y Aduanas Nacionales (DIAN). En desarrollo de su propósito el mencionado patrimonio autónomo podrá:

1. Recibir total o parcialmente aportes del Gobierno nacional para financiar o cofinanciar los proyectos de desarrollo acordes con la finalidad del patrimonio autónomo.

2. Administrar todo tipo de bienes muebles y/o inmuebles de propiedad de la DIAN y comercializarlos a fin de destinarlos al objeto del fondo.

3. Aceptar donaciones del sector público o privado, nacional e internacional, con el propósito de realizar las actividades del patrimonio.

4. Suscribir convenios o contratos con entidades públicas para desarrollar su propósito.

5. Celebrar operaciones de financiamiento interno o externo, a nombre de patrimonio autónomo para lo cual la Nación o las Entidades Territoriales podrán otorgar los avales o garantías correspondientes. Para el otorgamiento de la garantía de la Nación no será necesario la constitución de las contragarantías a favor de la Nación ni de la realización de aportes al Fondo de Contingencias.

Cumplido el propósito del Fondo DIAN para Colombia, este podrá ser liquidado. El Gobierno nacional reglamentará la materia.

Artículo 56. Fondo Nacional para el Desarrollo de la Infraestructura (FONDES).

Modifíquese el artículo 144 de la Ley 1753 de 2015 que quedará así:

Artículo 144. Fondo Nacional para el Desarrollo de la Infraestructura (FONDES). El Fondo Nacional para el Desarrollo de la Infraestructura (FONDES) será administrado por la Financiera de Desarrollo Nacional y/o la entidad que defina el Gobierno nacional, de conformidad con la reglamentación expedida para el efecto y en los términos del contrato que se suscriba.

El objeto del FONDES será la inversión y financiamiento de proyectos de infraestructura, así como la inversión en el capital social de empresas de servicios públicos mixtas u oficiales y su patrimonio estará constituido, entre otras, por las siguientes fuentes:

a) Cuando el Gobierno nacional lo defina, los recursos producto de la enajenación de la participación accionaria de la Nación, recibidos en virtud de un proceso regulado por la Ley 226 de 1995;

b) Los rendimientos que genere el Fondo;

c) Los recursos que obtenga el fondo a través de sus propias operaciones de crédito público y de tesorería;

d) Los demás recursos que se dispongan para el efecto.

El Gobierno nacional reglamentará la administración y funcionamiento del FONDES, así como los demás asuntos necesarios para su financiamiento y el cabal cumplimiento de su objeto, sin perjuicio del cumplimiento de lo dispuesto por el artículo 124 del Estatuto Orgánico del Presupuesto.

Parágrafo. Los recursos resultantes de la enajenación de la participación accionaria de la Nación señalados en este artículo, mientras se incorporan al Presupuesto General de la Nación, se mantendrán en una cuenta especial e independiente administrada por el Tesoro Nacional. El Gobierno nacional reglamentará el procedimiento por el que se decidirán los términos y plazos en que los recursos de esta cuenta especial serán incorporados en el Presupuesto General de la Nación, así como la transferencia de los mismos del Tesoro Nacional a los administradores.

Artículo 57. Eficiencia en la Administración de los Recursos del Fondo Nacional de Prestaciones Sociales del Magisterio.

Las cesantías definitivas y parciales de los docentes de que trata la Ley 91 de 1989 serán reconocidas y liquidadas por la Secretaría de Educación de la entidad territorial y pagadas por el Fondo Nacional de Prestaciones Sociales del Magisterio.

Las pensiones que pagará el Fondo Nacional de Prestaciones Sociales del Magisterio serán reconocidas por el citado Fondo, mediante la aprobación del proyecto de resolución por parte de quien administre el Fondo, el cual debe ser elaborado por el Secretario de Educación de la Entidad Territorial certificada correspondiente, a la que se encuentre vinculado el docente. El acto administrativo de reconocimiento de la pensión se hará mediante resolución que llevará la firma del Secretario de Educación de la entidad territorial.

Para el pago de las prestaciones económicas y los servicios de salud, el Fondo deberá aplicar el principio de unidad de caja con el fin de lograr mayor eficiencia en la administración y pago de las obligaciones definidas por la ley, con excepción de los recursos provenientes del Fondo Nacional de Pensiones de las Entidades Territoriales (FONPET). En todo caso, el Fondo debe priorizar el pago de los servicios de salud y de las mesadas pensionales de los maestros.

Los recursos del Fondo Nacional de Prestaciones Sociales del Magisterio solo podrán destinarse para garantizar el pago de las prestaciones económicas, sociales y asistenciales a sus afiliados docentes, pensionados y beneficiarios. No podrá decretarse el pago de indemnizaciones económicas por vía judicial o administrativa con cargo a los recursos del Fondo Nacional de Prestaciones Sociales del Magisterio.

Parágrafo. La entidad territorial será responsable del pago de la sanción por mora en el pago de las cesantías en aquellos eventos en los que el pago extemporáneo se genere como consecuencia del incumplimiento de los plazos previstos para la radicación o entrega de la solicitud de pago de cesantías por parte de la Secretaría de Educación territorial al Fondo Nacional de Prestaciones Sociales del Magisterio. En estos eventos el Fondo Nacional de Prestaciones Sociales del Magisterio será responsable únicamente del pago de las cesantías.

Parágrafo transitorio. Para efectos de financiar el pago de las sanciones por mora a cargo Fondo Nacional de Prestaciones Sociales del Magisterio causadas a diciembre de 2019, facúltese al Ministerio de Hacienda y Crédito Público para emitir Títulos de Tesorería que serán administrados por una o varias sociedades fiduciarias públicas; así mismo, el Ministerio de Hacienda y Crédito Público definirá la operación, las reglas de negociación y pago de los mismos. El Consejo Directivo del FOMAG efectuará la adición presupuestal de los recursos de los que trata el presente Parágrafo.

La emisión de bonos o títulos no implica operación presupuestal alguna y solo debe presupuestarse para efectos de su redención.

Artículo 58. Prohibición de transferencias y liquidación de empresas ineficientes.

Adiciónese el siguiente Parágrafo al artículo 14 de la Ley 617 de 2000:

Parágrafo. Las entidades territoriales podrán incluir dentro de sus planes de inversión, partidas destinadas a fortalecer la reserva técnica de las empresas operadoras de juegos de lotería tradicional o de billetes. También podrán hacerlo para el desarrollo e implementación de un plan de desempeño y/o estrategia comercial; el cual deberá contar con la aprobación previa del Consejo Nacional de juegos de Suerte y Azar, en el que se determinará la viabilidad de la empresa y la rentabilidad de la inversión.

Artículo 59. Condiciones de operación en línea y en tiempo real de los juegos localizados.

Modifíquese el artículo 14 de la Ley 1393 de 2010, el cual quedará así:

Artículo 14. Condiciones de operación en línea y en tiempo real de los juegos localizados. Los operadores de Juegos de Suerte y Azar Localizados que cumplan con las condiciones de conectividad y confiabilidad Restablecidos por la entidad administradora del monopolio pagarán a título de derecho de explotación el doce por ciento (12%) sobre los Ingresos brutos menos el monto de los premios pagados calculados sobre la totalidad de los elementos de juego autorizados en el contrato de concesión.

Una vez dispuesta la obligación de conectividad, se presumirá ilegal la máquina que no lo esté y además de las sanciones por ilegalidad correspondiente, será objeto del respectivo decomiso.

Parágrafo 1°. Entiéndase por ingresos brutos la totalidad del valor registrado en el contador de entrada de las máquinas del contrato de concesión.

Para el caso de Bingos, los ingresos brutos son el total del valor de los cartones vendidos en el periodo de liquidación.

Parágrafo 2°. En ningún caso el impuesto del IVA formará parte de la base para el cálculo de los derechos de explotación previstos en el siguiente artículo.

Artículo 60. Plan de Premios y Rentabilidad Mínima Anual.

Modifíquese el artículo 24 de la Ley 643 de 2001, el cual quedará así:

Artículo 24. Plan de Premios y Rentabilidad Mínima Anual. El Gobierno nacional fijará la estructura del plan de premios del juego de apuestas permanentes o chance que regirá en todo el país.

La rentabilidad mínima anual del juego de chance para cada concesionario, será el valor pagado por concepto de derechos de explotación en el año inmediatamente anterior, para lo cual, la única referencia son los ingresos brutos del juego.

Para los pliegos de condiciones, la legalización y la tasación de las garantías anuales de los contratos de concesión, el valor contractual será el 12% de los ingresos brutos del juego de chance de los últimos 5 años. La garantía de cumplimiento se constituirá por los concesionarios, por períodos sucesivos de un (1) año durante la vigencia de los contratos de concesión, con base en el valor del contrato por cada año, con la obligación de obtener la correspondiente prórroga con anticipación al vencimiento de la garantía en la etapa respectiva.

Cuando el monto de los derechos de explotación, de un año, resulte inferior al valor absoluto pagado durante el año inmediatamente anterior, el concesionario estará obligado al pago de la diferencia a título de compensación contractual.

No habrá lugar a conceptos, ni actos administrativos que varíen los derechos de explotación, la rentabilidad mínima ni el valor de los contratos.

Artículo 61. Prohibición de gravar el monopolio rentístico.

Modifíquese el artículo 49 de la Ley 643 de 2001, el cual quedará así:

Artículo 49. Prohibición de gravar el monopolio rentístico. En las concesiones o autorizaciones para operar juegos de suerte y azar, en las cuales el precio pagado por el aportador incluye el IVA, de pleno derecho, se efectuará el ajuste del valor del contrato respectivo en caso de incremento en la tarifa de este impuesto.

La suscripción, ejecución y liquidación de los contratos para la operación de todas las modalidades de juegos de suerte y azar, los puntos de venta, las agencias, establecimientos de comercio donde ellos operan, los premios y, en general todos los actos de la operación comercial de la actividad de juegos de suerte y azar, no pueden estas gravados con ningún impuesto directo o indirecto, tasas, contribuciones fiscales o parafiscales, estampillas, ni tarifas diferenciales por concepto de impuestos de carácter municipal, distrital o departamental.

Artículo 62. Créditos de tesorería de corto plazo.

En las Empresas Industriales y Comerciales del Estado y en las Sociedades de Economía Mixta que tengan régimen de Empresa Industrial y Comercial del Estado, que desarrollen su objeto social en mercados en competencia, y que tengan una calificación de crédito mínimo de A+ (Col) podrán celebrar créditos de tesorería de corto plazo previa aprobación de su Junta Directiva, sin superar el 10% de los ingresos de explotación de la vigencia en curso y sin requerirse concepto de otro órgano y entidad.

Parágrafo. Los créditos de tesorería de corto plazo, no servirán para modificar el presupuesto de la vigencia en curso, ni para soportar adiciones al presupuesto de gastos.

Artículo 63. Operaciones Finagro.

Adiciónese los numerales 6 y 7 al artículo 10 de la Ley 16 de 1990 modificado por el artículo 4° del Decreto 2371 de 2015 e incorporado en el artículo 230 del Estatuto Orgánico del Sistema financiero, el cual quedará así:

6. Transferir recursos al fondo de microfinanzas rurales hasta en un 20% de su patrimonio técnico conforme a las directrices de su junta directiva.

7. Realizar operaciones de redescuento con entidades microfinancieras no vigiladas por la Superintendencia Financiera de Colombia, sujeto a los límites aplicables a las cooperativas de ahorro y crédito vigiladas por la superintendencia de economía solidaria y a los límites aplicables a las cooperativas de ahorro y crédito vigiladas por la Superintendencia de Economía Solidaria y a las operaciones que en desarrollo de este artículo reglamente la Comisión Nacional de Crédito Agropecuario. La junta directiva de FINAGRO autorizará los cupos a cada entidad precio estudios de riesgos realizados por FINAGRO a cada entidad no vigilada.

Artículo 64. Rentas exentas a partir del año gravable 2019.

Interprétese con autoridad el primer inciso del artículo 235-2 del Estatuto Tributario, modificado por el artículo 79 de la Ley 1943 de 2018, y entiéndase que las rentas exentas de las personas naturales comprenden las de los artículos 126-1, 126-4, 206 y 206-1 del Estatuto Tributario y las reconocidas en convenios internacionales, desde el 1° de enero de 2019 inclusive.

Artículo 65. Tarifa especial para dividendos o participaciones recibidas por sociedades nacionales.

Modificar el Parágrafo 3° del artículo 50 de la Ley 1943 de 2018 que adicionó el artículo 242-1 del Estatuto Tributario referido a la tarifa especial para dividendos o participaciones recibidas por sociedades nacionales, el cual quedará así:

Parágrafo 3°. Los dividendos que se distribuyen dentro de los grupos empresariales o dentro de sociedades en situación de control debidamente registrados ante la Cámara de Comercio, no estarán sujetos a la retención en la fuente regulada en este artículo. Lo anterior, siempre y cuando no se trate de una entidad intermedia dispuesta para el diferimiento del impuesto sobre los dividendos.

  Artículo 66. Movilización de cartera.

 A partir de la expedición de la presente Ley, las entidades estatales o públicas del orden nacional con excepción de las entidades financieras de carácter estatal, las Empresas Industriales y Comerciales del Estado, las Sociedades de Economía Mixta y las entidades en liquidación, deberán vender la cartera con más de ciento ochenta (180) días de vencida al colector de activos de la Nación, Central de Inversiones (CISA), para que este las gestione.

Respecto de la cartera de naturaleza coactiva, las entidades de que trata este artículo, al igual que las de orden territorial, podrán enajenarla a CISA, quien para su recuperación podrá aplicar sus políticas de descuento y podrá dar aplicación al mecanismo de notificación electrónica de que trata el artículo 566-1 del Estatuto Tributario, que también aplicará para cualquier acto derivado del procedimiento establecido en el artículo 823 del referido Estatuto y demás normas que lo complementen o modifiquen. Se entenderá que los titulares de datos personales autorizan expresamente la notificación a través de este medio, de conformidad con lo previsto en el artículo 56 de la Ley 1437 de 2011.

CISA en su condición de colector de activos públicos de la Nación, tendrá acceso a las bases del Registro Único Tributario (RUT) y el Registro Único Nacional de Tránsito (RUNT) para obtener la información de correo electrónico de los deudores.

En los eventos en que la cartera sea de imposible recudo por la prescripción o caducidad de la acción, por la pérdida de fuerza ejecutoria del acto administrativo que le dio origen o por la inexistencia probada del deudor o su insolvencia demostrada y por tanto no sea posible ejercer los derechos de cobro o bien porque la relación costo-beneficio al realizar su cobro no resulta eficiente; las entidades estatales o públicas del orden nacional, podrán realizar la depuración definitiva de estos saldos contables, realizando un informe detallado de las causales por las cuales se depura y las excluirá de la gestión. El Gobierno nacional reglamentará la materia. Los recursos obtenidos por esta venta serán girados por los plazos fijados por CISA atendiendo sus disponibilidades de caja así: i) Al Tesoro Nacional en el caso de las entidades que hacen parte del presupuesto nacional; y ii) directamente a los patrimonios autónomos de remanentes y a las entidades pertenecientes al sector descentralizado del nivel nacional, cobijados por lo dispuesto en el artículo 238 de la Ley 1450 de 2011, así como los fondos especiales cuya ley de creación incluya ingresos de capital por venta de bienes propios de las entidades a las que están adscritos como fuentes de recursos.

CISA causará para efectos fiscales los ingresos que genere el cobro de cartera, solamente cuando se produzca el recaudo efectivo o se produzca su enajenación.

Artículo 67. Aeropuerto del Café (Aerocafé).

Los recursos destinados al desarrollo del Proyecto del Aeropuerto del Café (AEROCAFÉ), serán ejecutados a través de un patrimonio autónomo que para tal efecto constituya la Aeronáutica Civil.

El patrimonio autónomo podrá recibir aportes del Gobierno nacional, del departamento de Caldas y de sus municipios; y aceptar donaciones del sector público o privado, nacional e internacional. Así mismo, podrá celebrar operaciones de financiamiento interno o externo a nombre del patrimonio autónomo para lo cual la Nación o las entidades territoriales podrán otorgar los avales o garantías respectivas, hasta por el monto de los aportes que cada uno se haya comprometido.

El régimen de contratación y administración de sus recursos se regirá por el derecho privado, con plena observancia de los principios de transparencia, economía, igualdad y publicidad, definidos por la Constitución y la Ley. El control fiscal de los recursos lo ejercerá la Contraloría General de la República.

La administración del patrimonio autónomo presentará informes sobre los avances y resultados de la gestión de los recursos al menos una vez al año, que se remitirán a la Aeronáutica Civil para ser publicados en su página web.

Artículo 68. Administración del impuesto al turismo.

Los recursos recaudados por concepto del impuesto con destino al turismo de que trata el artículo 4° de la Ley 1101 de 2006, o la norma que la modifique, adicione o sustituya, no servirán de base en el proceso de programación para la financiación de otros programas del sector en el Presupuesto General de la Nación.

Artículo 69. Declaración y pago nacional.

Modifíquese el artículo 344 de la Ley 1819 de 2016, el cual quedará así:

Artículo 344. Declaración y pago nacional. Las administraciones departamentales, municipales y distritales deberán adoptar y exigir a los contribuyentes presentar la declaración del Impuesto de Industria y Comercio en el formulario único nacional diseñado por la Dirección General de Apoyo Fiscal del Ministerio de Hacienda y Crédito Público.

En el evento en que los municipios o distritos establezcan mecanismos de retención en la fuente del impuesto de industria y comercio, tales formularios serán adaptados a partir del formulario único nacional por cada entidad.

Para efectos de la presentación de la declaración y el pago, los municipios y distritos podrán suscribir convenios con las entidades financieras vigiladas por la Superintendencia Financiera de Colombia, con cobertura nacional, de tal forma que los sujetos pasivos puedan cumplir con sus obligaciones tributarias desde cualquier lugar del país, y a través de medios electrónicos de pago, sin perjuicio de remitir la constancia de declaración y pago a la entidad territorial sujeto activo del tributo. La declaración se entenderá presentada en la fecha de pago siempre y cuando, el pago se haya realizado dentro del término establecido, y se remita dentro de los 15 días hábiles siguientes a dicha fecha.

Las administraciones departamentales, municipales y distritales deberán permitir a los contribuyentes del impuesto de industria y comercio y de los demás tributos por ellas administrados, el cumplimiento de las obligaciones tributarias desde cualquier lugar del país, incluyendo la utilización de medios electrónicos.

Las administraciones departamentales, municipales y distritales deberán armonizar la clasificación de actividades económicas de sus registros de información tributaria (RIT) y de las tarifas del impuesto de industria y comercio a la Clasificación de Actividades Económicas que adopte o que se encuentra vigente por parte de la Dirección de Impuestos y Aduanas Nacionales (DIAN) para efectos del control y determinación de los impuestos y demás obligaciones tributarias.

Parágrafo. Lo dispuesto en el presente artículo se aplicará en relación con las declaraciones que deban presentarse a partir de la vigencia 2020.

Artículo 70. Inspección y vigilancia. Modifíquese el artículo 14 de la Ley 432 de 1998, el cual quedará así:

Artículo 14. Inspección y vigilancia. De conformidad con la reglamentación especial que al efecto expida el Gobierno nacional, el Fondo Nacional del Ahorro (FNA) estará sometido a la inspección y vigilancia de la Superintendencia Financiera de Colombia.

  Artículo 71. Política de uso y aprovechamiento del espacio público.

El Gobierno nacional acompañará a los entes territoriales en la formulación de la política de uso y aprovechamiento del espacio público, a fin de procurar alternativas para los vendedores Informales en el marco del principio de la confianza legítima y del derecho al trabajo. También promoverá su acceso a la seguridad social, según su capacidad de pago, y su acceso a los programas de Beneficios Económicos Periódicos (BEPS), promoviendo la capacitación y desarrollo de proyectos productivos.

Parágrafo. Los Concejos Municipales y Distritales podrán reglamentar, previo estudio de impacto fiscal, que parte del cobro para el uso y aprovechamiento del espacio público se podrá destinar a programas de ahorro para la vejez.

Artículo 72. Mecanismo para facilitar la administración de bienes.

Adiciónense los siguientes Parágrafos al artículo 92 de la Ley 1708 de 2014, los cuales quedarán así:

Parágrafo 3°. En los casos de venta masiva de bienes, el administrador del FRISCO podrá expedir acto administrativo que servirá de título traslaticio de dominio del bien a favor del comprador, el cual deberá inscribirse en el evento en que los bienes sean sujetos a registro. Lo anterior, sin perjuicio de las acciones de verificación que puedan adelantarse para establecer el origen lícito de los recursos que destine el comprador para la adquisición.

Parágrafo 4°. Cuando el administrador del FRISCO emplee la enajenación temprana podrá expedir acto administrativo que servirá de título traslaticio de dominio del bien a favor del FRISCO y tendrá las mismas consecuencias fijadas en el artículo 18 de la Ley 793 de 2002.

Parágrafo 5°. Sin perjuicio de la comercialización individual de los bienes, el administrador del FRISCO podrá, con el apoyo de expertos, adoptar mediante acto administrativo, metodologías fundamentales en factores econométricos para la valoración de activos urbanos con información catastral disponible, que sean susceptibles de enajenación a través de ventas masivas.

Parágrafo 6°. Será causal de terminación anticipada de los contratos de arrendamiento suscritos por el FRISCO, i) Condiciones no acordes al mercado, de acuerdo con los estudios técnicos que para el caso determine el administrador en su metodología; ii) La destinación definitiva de los inmuebles de conformidad con lo previsto en esta Ley; iii) Los contratos celebrados que no se acojan a las condiciones establecidas en la metodología de administración del FRISCO.

Configurada la causal de terminación anticipada, el administrador del FRISCO podrá ejercer las facultades de policía administrativa previstas en esta Ley para la recuperación del activo. En todo caso, el administrador del FRISCO, no podrá celebrar contratos de arrendamiento con el afectado dentro del proceso de extinción de dominio o sus familiares dentro del cuarto grado de consanguinidad, segundo de afinidad y primero civil.

Artículo 73. Enajenación temprana, chatarrización, demolición y destrucción.

Adiciónese un Parágrafo al artículo 93 de la Ley 1708 de 2014, el cual quedará así:

Parágrafo. Cuando se trate de bienes inmuebles rurales en proceso de extinción de dominio que no tengan la vocación descrita en el artículo 91 de la presente Ley, la entidad beneficiaria de dichos inmuebles comunicará tal situación y el administrador del FRISCO quedará habilitado para enajenarlos tempranamente.

Los recursos que se obtengan de la comercialización de estos predios serán entregados en su totalidad al Gobierno nacional, para ser destinados a los programas de generación de acceso a tierra administrados por este.

Artículo 74. Bienes gravados con la tarifa del cinco por ciento (5%).

Adiciónese un numeral y dos Parágrafos transitorios al artículo 468-1 del Estatuto Tributario, así:

4. El ingreso al productor en la venta de Gasolina y ACPM. Para efectos de este numeral se considera gasolina y ACPM lo definido en el Parágrafo 1° del artículo 167 de la Ley 1607 de 2012.

A la base gravable determinada de conformidad con el artículo 467 del Estatuto Tributario, se detrae el ingreso al productor y se le aplica la tarifa general del impuesto sobre las ventas IVA.

Parágrafo transitorio 2°. Para efectos del numeral 4 de este artículo, el exceso de impuesto descontable por la diferencia de tarifa será un mayor valor del costo o gasto hasta el 31 de diciembre de 2021. El exceso de impuesto descontable por la diferencia de tarifa, generado a partir del 1° de enero de 2022 por la venta de productos del numeral 4 de este artículo, se regirá por lo establecido en el Parágrafo del artículo 485 de este Estatuto.

Parágrafo transitorio 3°. Lo dispuesto en el numeral 4 de este artículo inicia su aplicación a partir del bimestre siguiente a la vigencia de la presente Ley.

SUBSECCIÓN 3. LEGALIDAD PARA LA PROTECCIÓN SOCIAL

Artículo 75. Competencias de inspección, vigilancia y control de la superintendencia nacional de salud respecto de la composición de capital o del patrimonio de las EPS. Todo acto jurídico sin consideración a su naturaleza, de nacionales o extranjeros que tenga por objeto o efecto la adquisición directa o indirecta del diez por ciento (10%) o más de la composición de capital o del patrimonio de una Entidad Promotora de Salud, ya se realice mediante una o varias operaciones de cualquier naturaleza, simultáneas o sucesivas o aquellas por medio de las cuales se incremente dicho porcentaje, requerirá, so pena de ineficacia de pleno derecho, la aprobación del Superintendente Nacional de Salud, quien examinará la idoneidad, responsabilidad y carácter de las personas interesadas en adquirirlas. El Superintendente, además, se cerciorará que el bienestar público será fomentado con dicha transacción.

El Superintendente Nacional de Salud verificará que el interesado o potencial adquirente haya acreditado como mínimo los siguientes requisitos, para obtener la aprobación:

a) El origen de los recursos objeto del acto o negocio jurídico;

b) Tener un patrimonio equivalente a, por lo menos, 1.3 veces el capital que se compromete a aportar en el negocio o acto jurídico, incluyendo este último;

c) Que por lo menos una tercera parte de los recursos con los que se realiza el negocio o acto jurídico, sean propios y no producto de operaciones de endeudamiento u otras análogas.

En todo caso, el Superintendente Nacional de Salud, mediante acto administrativo motivado, negará la aprobación de que trata el presente artículo, cuando el interesado o potencial adquirente, o alguno de sus socios, cuando aplique, se encuentren incursos en alguna o varias de las siguientes situaciones:

1. Haber sido condenado por delitos relacionados con el manejo de recursos públicos.

2. Haber sido condenado por delitos contra el patrimonio económico, lavado de activos, enriquecimiento ilícito y los establecidos en los Capítulos Segundo del Título X, Primero del Título XV y Segundo del Título XIII del Libro Segundo del Código Penal y las normas que los modifiquen o sustituyan.

3. Haber sido objeto de declaración de extinción de dominio, por incurrir en las causales previstas en el artículo 16 de la Ley 1708 de 2014 o disposiciones que la modifican o sustituyan.

4. Haber sido sancionado por infringir las normas legales o reglamentarias sobre la integración vertical y de posición dominante.

Parágrafo 1°. El Gobierno nacional adecuará, en lo pertinente, las normas vigentes sobre la habilitación y la permanencia de las Entidades Promotoras de Salud.

Parágrafo 2°. El Ministerio de Salud y Protección Social establecerá los parámetros necesarios para definir el beneficiario real de la transferencia, así como su identificación.

Parágrafo 3°. El presente artículo aplicará a la inversión extranjera en Entidades Promotoras de Salud sin perjuicio de lo establecido en régimen de la inversión de capitales del exterior en el país.

Artículo 76. Contribución de vigilancia a favor de la Superintendencia Nacional de Salud.

Modifíquese el artículo 98 de la Ley 488 de 1998, el cual quedará así:

Artículo 98. Contribución de vigilancia a favor de la Superintendencia Nacional de Salud. La contribución de vigilancia a favor de la Superintendencia Nacional de Salud tendrá como fin apoyar el cubrimiento de los costos y gastos que ocasione el funcionamiento e inversión de dicha Superintendencia, la cual deberán cancelar anualmente las personas jurídicas de derecho privado y derecho público sometidos a Inspección, Vigilancia y Control (IVC) de acuerdo con la ley o el reglamento.

La contribución impuesta se causará el primer día calendario de enero. Si una entidad no permaneció bajo IVC durante todo el año anterior a la causación, pagará la contribución, con base en los ingresos operacionales del sector obtenidos durante el tiempo que estuvo activa.

La contribución se fijará por parte de la Superintendencia Nacional de Salud conforme a los siguientes criterios:

1. El total de las contribuciones apoyará el presupuesto anual de funcionamiento e inversión de la Superintendencia.

2. Con base en los ingresos operacionales del sector causados a 31 de diciembre del año inmediatamente anterior, la Superintendencia Nacional de Salud, mediante resolución, establecerá anualmente la tarifa de la contribución a cobrar que no podrá ser superior al cero coma dos por ciento (0,2%) de dichos ingresos.

3. La contribución deberá pagarse en los plazos que para tal efecto determine la Superintendencia Nacional de Salud. De conformidad con el artículo 3° de la Ley 1066 de 2006, los responsables de la contribución aquí establecida que no las cancelen oportunamente deberán liquidar y pagar intereses moratorios a la tasa prevista en el Estatuto Tributario.

Parágrafo 1°. Los recursos que administra la ADRES e INDUMIL, los prestadores de servicios de salud con objeto social diferente, los profesionales independientes, las EPS e IPS Indígenas, las Empresas Sociales del Estado acreditadas, así como las Instituciones Prestadoras de Servicios de Salud y los Hospitales Universitarios debidamente acreditados quedarán exonerados del pago de contribución de vigilancia a favor de la Superintendencia Nacional de Salud.

Parágrafo 2°. La implementación de esta disposición se hará a partir del 1° de enero de 2020, la liquidación y recaudo de la tasa correspondiente a la anualidad 2019 se regirá por lo dispuesto en el artículo 98 de la Ley 488 de 1998.

Artículo 77. Programa de Saneamiento Fiscal y Financiero. Se entiende por Programa de Saneamiento Fiscal y Financiero de Empresas Sociales del Estado, un programa integral, institucional, financiero y administrativo, que tiene por objeto restablecer la solidez económica y financiera de estas Empresas y asegurar la continuidad, la calidad y la oportunidad en la prestación del servicio público de salud, respetando, en todo caso, lo señalado por el artículo 24 de la Ley 1751 de 2015.

El Ministerio de Hacienda y Crédito Público definirá los parámetros generales de adopción, seguimiento y evaluación de los programas a que hace referencia este artículo y tendrá a cargo la viabilidad y evaluación de los mismos.

Las Empresas Sociales del Estado categorizadas en riesgo medio o alto, deberán adoptar un programa de saneamiento fiscal y financiero, con el acompañamiento de la dirección departamental o distrital de salud, conforme a la reglamentación y la metodología que defina el Ministerio de Hacienda y Crédito Público.

Las Empresas Sociales del Estado cuyos Programas de Saneamiento Fiscal y Financiero se encuentren en proceso de viabilidad o debidamente viabilizados por el Ministerio de Hacienda y Crédito Público, a la fecha de entrada en vigencia de la presente Ley, no serán objeto de categorización del riesgo hasta tanto el Programa no se encuentre culminado.

Los recursos que destine la Nación, las entidades territoriales, las Leyes 1608 de 2013, 1797 de 2016 y demás disposiciones, se podrán aplicar conforme a la reglamentación definida por el Ministerio de Hacienda y Crédito Público.

Parágrafo 1°. Las Empresas Sociales del Estado que hayan sido remitidas por el Ministerio de Hacienda y Crédito Público a la Superintendencia Nacional de Salud, antes de la entrada en vigencia de la presente ley y que en virtud de la competencia establecida en el artículo 80 de la Ley 1438 de 2011, sean categorizadas en riesgo medio o alto por el Ministerio de Salud y Protección Social, podrán presentar un nuevo Programa de Saneamiento Fiscal y Financiero ante el Ministerio de Hacienda y Crédito Público.

Parágrafo 2°. Las fundaciones que sean categorizadas en riesgo medio o alto por el Ministerio de Salud y Protección Social podrán adoptar un Programa de Saneamiento Fiscal y Financiero en las condiciones establecidas en el presente artículo, de conformidad con la reglamentación que para el efecto expida el Ministerio de Hacienda y Crédito Público y acceder a los recursos del Programa de Saneamiento Fiscal y Financiero de que trata la Ley 1608 de 2013 y demás normas.

Parágrafo 3°. El incumplimiento de lo dispuesto en el presente artículo genera responsabilidad disciplinaria y fiscal para los representantes legales y revisores fiscales, de las entidades territoriales y de las Empresas Sociales del Estado, según corresponda.

Parágrafo 4°. El Ministerio de Hacienda y Crédito Público remitirá a la Superintendencia Nacional de Salud la información de las Empresas Sociales del Estado que, de acuerdo con las evaluaciones realiza das por el Ministerio incumplan el Programa de Saneamiento Fiscal y Financiero, para que la Superintendencia Nacional de Salud adelante las actuaciones a que haya lugar, de conformidad con el marco de sus competencias.

Artículo 78. Autorización para el uso de los recursos de las entidades territoriales.

Las entidades territoriales podrán destinar al saneamiento fiscal y financiero de las Empresas Sociales del Estado categorizadas en riesgo medio o alto de la red de prestación de servicios de salud de su departamento, incluidas aquellas que no sean de su propiedad, los recursos dispuestos para este fin por la normatividad vigente y las demás que en adelante los dispongan. En todo caso, los citados recursos se podrán disponer siempre y cuando no sean requeridos para el saneamiento de aquellas ESE de propiedad de la entidad territorial. Los términos y condiciones para la transferencia y uso de los recursos se deben consignar en un documento debidamente firmado por las partes.

  SUBSECCIÓN 4. LEGALIDAD DE LA PROPIEDAD

Artículo 79. Naturaleza y organización de la gestión catastral.

La gestión catastral es un servicio público que comprende un conjunto de operaciones técnicas y administrativas orientadas a la adecuada formación, actualización, conservación y difusión de la información catastral, así como los procedimientos del enfoque catastral multipropósito que sean adoptados.

La gestión catastral será prestada por:

i) Una autoridad catastral nacional que regulará la gestión catastral, y estará a cargo del Instituto Geográfico Agustín Codazzi (IGAC);

ii) Por gestores catastrales, encargados de adelantar la formación, actualización, conservación y difusión catastral, así como los procedimientos del enfoque catastral multipropósito adoptados para el efecto; y

iii) Por operadores catastrales, quienes desarrollarán labores operativas relativas a la gestión catastral.

El Instituto Geográfico Agustín Codazzi (IGAC) será la máxima autoridad catastral nacional y prestador por excepción del servicio público de catastro, en ausencia de gestores catastrales habilitados. En su rol de autoridad catastral, el IGAC mantendrá la función reguladora y ejecutora en materia de gestión catastral, agrología, cartografía, geografía y geodesia.

Con el fin de garantizar el adecuado cumplimiento de los estándares de rigor y pertinencia de la gestión catastral, el Instituto Geográfico Agustín Codazzi (IGAC), convocará una instancia técnica asesora que asegure la idoneidad de la regulación técnica bajo su responsabilidad.

El IGAC, a solicitud de parte, y previo cumplimiento de las condiciones jurídicas, técnicas, económicas y financieras, definidas en el respectivo marco regulatorio, habilitará como gestores catastrales para la prestación del servicio catastral a las entidades públicas nacionales o territoriales, incluyendo, entre otros, esquemas asociativos de entidades territoriales.

Los gestores catastrales podrán adelantar la gestión catastral para la formación, actualización y conservación catastral, así como los procedimientos del enfoque catastral multipropósito que sean adoptados, directamente o mediante la contratación de operadores catastrales.

Los operadores catastrales son las personas jurídicas, de derecho público o privado, que mediante contrato con uno o varios gestores catastrales, desarrollan labores operativas que sirven de insumo para adelantar los procesos de formación, actualización y conservación catastral, así como los procedimientos del enfoque catastral multipropósito que sean adoptados, conforme a la regulación que para el efecto expida el Gobierno nacional. Los operadores catastrales deberán cumplir con los requisitos de idoneidad que defina el Gobierno nacional. El IGAC será gestor catastral por excepción, en ausencia de gestores catastrales habilitados.

La Superintendencia de Notariado y Registro (SNR) o la entidad que haga sus veces, ejercerá las funciones de inspección, vigilancia y control al ejercicio de la gestión catastral que adelantan todos los sujetos encargados de la gestión catastral incluyendo los gestores y operadores catastrales, así como los usuarios de este servicio.

La custodia y gestión de la información catastral corresponde al Estado a través del Instituto Geográfico Agustín Codazzi (IGAC), quien promoverá su producción y difusión. La información generada por los gestores catastrales en ejercicio de sus funciones deberá ser registrada, en los términos y condiciones definidos por la autoridad reguladora, en el Sistema Nacional de Información Catastral (SINIC), el cual será el instrumento para la gestión de la información catastral y debe ser interoperable con otros sistemas de información de acuerdo con los criterios que para el efecto defina la autoridad reguladora. La información registrada en el sistema se considera oficial para todos los fines.

En todo caso, los gestores y operadores catastrales actuarán dando estricto cumplimiento a las disposiciones contenidas en las Leyes 1581 de 2012 y 1712 de 2014, o las normas que las modifiquen, complementen o adicionen.

Los departamentos podrán apoyar financiera, técnica y administrativamente a los municipios que asuman su gestión catastral y promoverán la coordinación entre gestores catastrales, asociaciones de municipios y municipios para la prestación del servicio público catastral en su jurisdicción.

Parágrafo 1°. Conservarán su condición de gestor catastral aquellas entidades que, a la promulgación de la presente Ley, sean titulares de catastros descentralizados o mediante delegación ejerzan la gestión sin necesidad de trámite adicional alguno. Respecto de los catastros descentralizados, a la fecha de entrada en vigencia de la presente Ley, estos conservarán su calidad de autoridades catastrales por lo cual podrán promover, facilitar y planear el ejercicio de la gestión catastral en concordancia con la regulación nacional en materia catastral sin perjuicio de las competencias legales de la SNR, del IGAC y de la ANT.

Parágrafo 2°. Los gastos asociados a la gestión catastral constituyen gastos de inversión, sin perjuicio de los gastos de funcionamiento que requieran los gestores catastrales para desarrollar sus funciones.

Artículo 80. Gestión Catastral a cargo de la Agencia Nacional de Tierras (ANT).

La Agencia Nacional de Tierras (ANT) en su calidad de gestor catastral, de acuerdo con los estándares y las especificaciones técnicas determinadas por el Instituto Geográfico Agustín Codazzi (IGAC), levantará los componentes físico y jurídico del catastro, necesarios para los procesos de ordenamiento social de la propiedad o los asociados al desarrollo de proyectos estratégicos del orden nacional priorizados por el Ministerio de Agricultura y Desarrollo Rural.

La Agencia Nacional de Tierras (ANT) incorporará la información levantada en el suelo rural de su competencia y alimentará con dicha información el sistema de información que el Instituto Geográfico Agustín Codazzi (IGAC) defina para el efecto. Para el levantamiento de los demás componentes, así como la información correspondiente al suelo urbano, el gestor catastral o el Instituto Geográfico Agustín Codazzi (IGAC) deberán coordinar con la Agencia Nacional de Tierras (ANT) para completar la intervención integral catastral. En este caso se procurará el levantamiento de la Información en campo con un único operador catastral. La Agencia Nacional de Tierras (ANT) no tendrá a su cargo la conservación catastral.

Artículo 81. Infracciones al régimen de prestación del servicio público de gestión catastral.

Los propietarios, ocupantes, tenedores o poseedores, titulares de derechos reales o quien tenga cualquier relación fáctica o jurídica con el predio, se encuentran obligados a permitir la entrada de los operadores del catastro a las diferentes unidades prediales cuando se les requiera, a suministrar información veraz y útil, así como a participar en las actividades derivadas del proceso de gestión catastral multipropósito; en igual sentido, les corresponde solicitar la anotación, modificación o rectificación de la Información predial de su Interés, no hacerlo será considerado una Infracción al régimen de gestión catastral.

De otra parte, los gestores y operadores del servicio público de catastro serán sujetos del siguiente régimen de infracciones;

1. No suministrar información oportunamente, o no suministrar información requerida por el Instituto Geográfico Agustín Codazzi (IGAC), relacionada con el Sistema Nacional de Información Catastral.

2. Incumplir los procedimientos, protocolos o requisitos previstos por el Instituto Geográfico Agustín Codazzi (IGAC) para el suministro y consolidación de la Información catastral.

3. Efectuar modificaciones en el Sistema Nacional de Información Catastral sin el cumplimiento de los requisitos documentales de orden técnico o jurídico, fijados por el Instituto Geográfico Agustín Codazzi (IGAC).

4. Efectuar modificaciones catastrales por fuera de los términos establecidos en los estándares, metodologías y procedimientos definidos por el Instituto Geográfico Agustín Codazzi (IGAC).

5. Exigir requisitos adicionales a los señalados para la ejecución de trámites o servicios catastrales.

6. No adelantar las labores de formación, conservación y actualización catastral, pese a haber sido habilitado para el efecto, por el Instituto Geográfico Agustín Codazzi (IGAC).

7. Aplicar incorrectamente o no aplicar las metodologías, los estándares, metodologías y procedimientos técnicos definidos por el Instituto Geográfico Agustín Codazzi (IGAC) en el desarrollo de las actividades propias del catastro.

8. Atrasar injustificadamente la validación de documentos en el Sistema Nacional de Información Catastral.

9. Realizar modificaciones catastrales sin los respectivos soportes.

10. Presentar desactualización injustificada de la gestión catastral.

11. Incumplir los estándares en la entrega adecuada y oportuna de Información a los ciudadanos y en la atención de los trámites relacionados con la gestión catastral.

12. No cargar la información, o cargarla de manera incompleta, inoportuna y/o no veraz, al Sistema Nacional de Información Catastral.

13. Incumplir las disposiciones contenidas en la presente ley, la normativa proferida por el Instituto Geográfico Agustín Codazzi (IGAC) en ejercicio de su función regulatoria, las instrucciones y órdenes impartidas por la Superintendencia de Notariado y Registro y demás leyes, decretos y reglamentos que regulen la gestión catastral.

Parágrafo. Las infracciones establecidas en el presente artículo podrán ser aplicables al Instituto Geográfico Agustín Codazzi (IGAC) cuando ejerza funciones de gestor catastral por excepción, salvo las conductas relacionadas con la causal décima (10) de este artículo, para lo cual la Superintendencia de Notariado y Registro, o quien haga sus veces, se abstendrá de sancionar al IGAC por un término de cuatro (4) años contados a partir de la entrada en vigencia de la presente ley.

Artículo 82. Régimen Sancionatorio.

La comisión de las infracciones previstas en el artículo anterior, sin perjuicio de la responsabilidad penal, fiscal o disciplinaria, dará lugar a la imposición por parte de la Superintendencia de Notariado y Registro, o quien haga sus veces, de las siguientes sanciones:

1. Multa entre veinticinco (25) y doscientos cuarenta y un mil seiscientos cuarenta y cinco (241.645) Unidades de Valor Tributario (UVT). Si la infracción se cometió durante varios años, el monto máximo de la multa se podrá aumentar hasta en ciento veinte mil ochocientos veintitrés (120.823) Unidades de Valor Tributario (UVT), por cada año adicional que dure la infracción.

2. Suspensión temporal de la habilitación en todas o algunas de las actividades que comprenden el servicio de gestión catastral.

3. Revocatoria de la habilitación como gestor catastral.

La Superintendencia de Notariado y Registro, o quien haga sus veces, seguirá el procedimiento administrativo general previsto en el Título III de la Ley 1437 de 2011 o las disposiciones que hagan sus veces.

Dentro de los criterios de atenuación se tendrán en cuenta las condiciones socioeconómicas del infractor aquí previstas, así como las contempladas en la Ley 1437 de 2011. Serán atenuantes específicas para la imposición de sanciones las siguientes conductas y situaciones:

1. Informar de manera voluntaria a la Superintendencia de Notariado y Registro, o quien haga sus veces, la infracción antes de la notificación del auto de apertura de investigación.

2. Que las inconsistencias en el ejercicio de la prestación del servicio de gestión catastral no afecten la veracidad de la información.

3. Corregir o mitigar por su cuenta las inconsistencias en la información catastral antes de la notificación del auto de práctica de pruebas.

La sanción la impondrá la Superintendencia de Notariado y Registro, o quien haga sus veces, según el grado de impacto en la gestión catastral y el factor de reincidencia y los demás agravantes contemplados en la Ley 1437 de 2011.

La Superintendencia de Notariado y Registro, o quien haga sus veces, podrá imponer las medidas preventivas que determine necesarias y proporcionales, como la suspensión inmediata de todas o algunas de las actividades del infractor. Cuando la sanción sea la de suspensión o revocatoria de la gestión catastral, el Instituto Geográfico Agustín Codazzi (IGAC) asumirá temporalmente su ejercicio hasta cuando se habilite un gestor catastral, directamente o a través de un tercero.

Artículo 83. Inembargabilidad, Imprescriptibilidad e Inalienabilidad.

Modifíquese el artículo 10 de la Ley 397 de 1997, el cual quedará así.

Artículo 10. Inembargabilidad, Imprescriptibilidad e Inalienabilidad. Los bienes de interés cultural de propiedad de entidades públicas son inembargables, imprescriptibles e inalienables.

Excepcionalmente podrán enajenarse a particulares bienes de interés cultural de propiedad de entidades públicas, previo concepto favorable del Consejo Nacional de Patrimonio Cultural o de los respectivos consejos departamentales o distritales de patrimonio cultural, según el caso, en los siguientes eventos:

1. Cuando el bien de interés cultural se encuentre en el marco del régimen de propiedad horizontal y la entidad pública sea propietaria de una o varias unidades de vivienda, comercio o industria, y la enajenación se requiera para garantizar la integridad y protección del inmueble.

2. Cuando la entidad pública sea propietaria del derecho proindiviso o cuota sobre bienes inmuebles, así como derechos fiduciarios en fideicomisos que tienen como bien(es) fideicomitido(s) inmuebles enajenación se requiera para garantizar la integridad y protección del inmueble.

3. Cuando el bien de interés cultural haya sido objeto de extinción de dominio.

4. Cuando el bien de interés cultural tenga uso comercial, de servicios o industrial y la entidad pública no pueda usarlo o mantenerlo, de forma que el bien tenga riesgo de deterioro.

5. Cuando la enajenación se haga a instituciones de educación superior o a entidades de derecho privado sin ánimo de lucro defensa del patrimonio cultural.

En todos los casos previstos en este artículo, el respectivo bien mantendrá su condición de bien de interés cultural y quien lo adquiera estará obligado a cumplir las normas aplicables en el régimen especial de protección.

Dentro de los títulos jurídicos de enajenación a particulares y/o entidades públicas se incluye el aporte fiduciario. En todo caso la enajenación se regirá por el régimen de contratación que cobije a la respectiva entidad pública enajenante y demás normas aplicables.

Parágrafo. El Ministerio de Cultura podrá autorizar la enajenación o el préstamo de bienes de interés cultural del ámbito nacional entre entidades públicas. Los municipios, los departamentos, las autoridades de los territorios indígenas y de las comunidades negras de que trata la Ley 70 de 1993, serán las encargadas de dar aplicación a lo previsto en este Parágrafo respecto de los bienes de interés cultural declarados por ellas.

Las autoridades señaladas en este Parágrafo podrán autorizar a las entidades públicas propietarias de bienes de interés cultural para darlos en comodato a entidades privadas sin ánimo de lucro de reconocida idoneidad, hasta por el término de cinco (5) años prorrogables con sujeción a lo previsto en el artículo 355 de la Constitución Política, celebrar convenios interadministrativos y de asociación en la forma prevista en los artículos 95 y 96 de la Ley 489 de 1998 o en las normas que los modifiquen o sustituyan, y en general, celebrar cualquier tipo de contrato, incluidos los de concesión y alianzas público-privadas, que impliquen la entrega de dichos bienes a particulares, siempre que cualquiera de las modalidades que se utilicen se dirijan a proveer y garantizar lo necesario para la protección, recuperación, conservación, sostenibilidad y divulgación de los mismos, sin afectar su inalienabilidad, imprescriptibilidad e inembargabilidad.

Artículo 84. Registro Único de Predios y Territorios Abandonados (Rupta).

Adiciónese a la Ley 387 de 1995 un nuevo artículo, el cual quedará así:

Artículo 33-A. La inscripción en el Registro Único de Predios y Territorios Abandonados (Rupta), creado por la Ley 387 de 1995, procederá de oficio, o por solicitud del interesado y deberá realizarse dentro de los dos (2) años siguientes al hecho victimizante, salvo fuerza mayor o caso fortuito.

La cancelación en el Rupta procederá en cualquier tiempo respecto de medidas individuales o colectivas, de oficio o por solicitud del beneficiario de la medida o del propietario del predio. Una vez recibida la solicitud, o iniciado el trámite de oficio, la Unidad Administrativa Especial de Gestión de Restitución de Tierras Despojadas, comunicará dicho trámite a través del medio más eficaz a quienes puedan verse directamente afectados por la decisión, a fin de que puedan intervenir en el trámite administrativo para aportar las pruebas que se pretendan hacer valer. La referida Unidad tendrá un término de sesenta (60) días contados a partir del momento en que acometa el estudio para decidir sobre la inclusión o cancelación en el Rupta. Este término podrá ser prorrogado hasta por treinta (30) días, cuando existan o sobrevengan circunstancias que lo justifiquen. El Gobierno nacional reglamentará este procedimiento administrativo especial, en armonía con la Ley 1448 de 2011.

Artículo 85. Concepto de Vivienda de Interés Social.

De conformidad con lo previsto en el artículo 91 de la Ley 388 de 1997, la vivienda de interés social es aquella que se desarrolla para garantizar el derecho a la vivienda de los hogares de menores ingresos, que cumple con los estándares de calidad en diseño urbanístico, arquitectónico y de construcción sostenible, y cuyo valor no exceda ciento treinta y cinco salarios mínimos mensuales legales vigentes (135 smmlv). Excepcionalmente, para las aglomeraciones urbanas definidas por el Conpes y cuya población supere un millón (1.000.000) de habitantes, el Gobierno nacional podrá establecer como precio máximo de la vivienda de interés social la suma de ciento cincuenta salarios mínimos mensuales legales vigentes (150 smmlv). Para el caso de los municipios que hacen parte de dichas aglomeraciones, el valor aplicará únicamente para aquellos en que el Gobierno nacional demuestre presiones en el valor del suelo, que generan dificultades en la provisión de vivienda de interés social. El valor máximo de la Vivienda de Interés Prioritario, será de noventa salarios mínimos mensuales legales vigentes (90 smmlv).

Tratándose de programas y/o proyectos de renovación urbana, la vivienda de interés social podrá tener un precio superior a los ciento treinta y cinco salarios mínimos mensuales legales vigentes (135 smmlv), sin que este exceda los ciento setenta y cinco salarios mínimos mensuales legales vigentes (175 smmlv). La vivienda de interés prioritario en renovación urbana podrá tener un precio superior a los noventa salarios mínimos mensuales legales vigentes (90 smmlv), sin que este exceda los ciento diez salarios mínimos mensuales legales vigentes (110 smmlv).

Parágrafo 1°. Los proyectos de Vivienda de Interés Social implementarán las medidas establecidas por el Gobierno nacional para el ahorro de agua y energía, entre las que se incluyen la iluminación y ventilación natural, de acuerdo con las condiciones climáticas. Asimismo, los proyectos de vivienda, de equipamiento (recreación, deporte, salud, educación) y de espacio público implementarán los criterios de sostenibilidad establecidos por el Conpes 3919 de 2018.

Parágrafo 2°. En ningún caso se podrán otorgar subsidios por encima del tope de recursos previstos en el Marco Fiscal de Mediano Plazo y en el Marco de Gasto del sector.

Parágrafo 3°. Los recursos correspondientes a subsidios familiares de vivienda urbana que sean objeto de renuncia por parte de su beneficiario, que se venzan, o que correspondan a aquellos recuperados mediante actuaciones administrativas, deberán ser incorporados en el presupuesto del Fondo Nacional de Vivienda (Fonvivienda), y serán destinados a la financiación o cofinanciación de programas o proyectos de vivienda de interés social, a la construcción y/o dotación de equipamientos públicos colectivos y/o a la infraestructura de servicios públicos domiciliarios. Lo anterior, independientemente de la vigencia presupuestal en la que hayan sido asignados los subsidios.

Los mencionados recursos podrán ser transferidos directamente, total o parcialmente, a cualquiera de los patrimonios autónomos en los que sea fideicomitente el Fonvivienda, o la entidad que indique el Gobierno nacional.

Respecto de los subsidios familiares de vivienda urbana que se encuentren sin aplicar, Fonvivienda podrá proceder a su vencimiento sin que se requiera surtir previamente el proceso a que se refiere el Parágrafo 1° del artículo 8° de la Ley 1537 de 2012.

En todo caso, los recursos del Presupuesto General de la Nación asignados a Fonvivienda y que se incorporen a patrimonios autónomos en los cuales dicha entidad sea Fideicomitente, independiente del rubro presupuestal de los referidos recursos, podrán ser destinados para la construcción y/o dotación de equipamientos públicos colectivo y/o infraestructura de servicios públicos domiciliarios, incluida la adquisición de predios para esos propósitos, para los proyectos de vivienda de interés social y prioritaria que se ejecuten en el marco de los patrimonios autónomos. La entidad aportante de los recursos definirá los porcentajes de los recursos aportados que pueden ser destinados a estos propósitos.

Parágrafo 4°. Cuando la entidad otorgante de subsidios familiares de vivienda 100% en especie (SFVE) advierta el acaecimiento de una causal para su restitución, de acuerdo con lo establecido en el artículo 21 de la Ley 1537 de 2012, adelantará un procedimiento administrativo para lograr la restitución formal del título de dominio del bien inmueble y, con el fin de lograr la restitución material, se podrán Incoar las acciones policivas a que haya lugar, según los términos y condiciones dispuestos en la legislación vigente.

Sin perjuicio de lo anterior, una vez surtido el proceso administrativo, por virtud de la ley e independientemente del negocio jurídico suscrito para que el hogar beneficiario se convirtiera en propietario de la vivienda, la entidad otorgante del SFVE o los fideicomisos en los cuales esta sea fideicomitente, podrán convertirse en titulares del derecho de dominio de las viviendas restituidas, para lo cual solo se requerirá la inscripción del acto administrativo correspondiente en el folio de matrícula inmobiliaria de la vivienda.

Cuando, en virtud de acreditación emitida por autoridad competente, se determine que las viviendas han sido utilizadas como medio o instrumento para la ejecución de actividades ilícitas, podrán ser restituidas por parte de la entidad otorgante, para ser asignadas a otros hogares que se encuentren en las condiciones señaladas en el artículo 12 de la Ley 1537 de 2012, aún en el evento en que no se cuente con decisión judicial.

Las viviendas que sean objeto de restitución de acuerdo con lo establecido en el presente artículo podrán ser transferidas a Fonvivienda o a patrimonios autónomos constituidos por la entidad otorgante de los subsidios, hasta el momento en que sean transferidas a un nuevo hogar beneficiario.

En el caso de solicitarse renuncias al Subsidio Familiar de Vivienda en Especie (SFVE), la restitución del título de dominio del bien inmueble procederá con la sola inscripción del acto administrativo que acepta la renuncia en el folio de matrícula inmobiliaria, sin ser necesaria la resciliación de la escritura pública de transferencia. En estos casos, el título de dominio se establecerá en la entidad otorgante del SFVE o los fideicomisos en las cuales esta sea fideicomitente.

Artículo 86. Trámite de Reparto Notarial.

Modifíquese el artículo 15 de la Ley 29 de 1973, el cual quedará así:

Artículo 15. Trámite de Reparto Notarial. El trámite de reparto notarial para los actos que involucren la constitución de propiedad horizontal, constitución o levantamiento de gravámenes, adquisición o trasferencia del derecho de propiedad y adquisición o transferencia de inmuebles donde comparezcan las entidades financieras del Estado de orden nacional que otorguen o que otorgaron el crédito para la adquisición de vivienda, cuando en el círculo de que se trate haya más de una notaría, se asignarán eficientemente entre las que exista, de tal modo que la administración no establezca privilegios a favor de ningún notario. El mecanismo mediante el cual se dará cumplimiento a lo anterior deberá ser auditado anualmente por un tercero independiente, con criterios de eficiencia y transparencia.

Artículo 87. Seguridad Jurídica en el Ordenamiento Territorial.

El principio de seguridad jurídica deberá estar inmerso en las acciones y actuaciones urbanísticas, a fin de propender por la inversión y estabilidad a mediano y largo plazo del sector edificador.

El otorgamiento de una licencia urbanística en cualquiera de sus modalidades crea derechos y obligaciones de carácter particular para el titular de la licencia, y de carácter colectivo para la comunidad en general y las entidades territoriales correspondientes.

Para los titulares de las licencias urbanísticas, el otorgamiento de una licencia reconoce derechos de construcción y desarrollo, ya sea parcelando, urbanizando o construyendo en los predios objeto de la misma; y, genera para su titular una serie de deberes en los términos y condiciones autorizados en el acto administrativo que la adopta.

En los eventos en que la licencia urbanística comprenda obligaciones de cesión de áreas para espacio público, o construcción de equipamiento público, se entenderá que la licencia urbanística reconoce derechos colectivos al espacio público de las áreas de cesión que surgen como consecuencia del proyecto urbanístico licenciado y de las obras de infraestructura en servicios públicos y vías de la malla vial arterial que se ejecuten por efecto de la concesión de la licencia.

Parágrafo. El acto administrativo que adopte la concertación ambiental en el proceso de formulación de un plan parcial se sujetará a las determinantes ambientales incorporadas en el trámite de revisión o modificación de los planes de ordenamiento territorial.

SUBSECCIÓN 5. LEGALIDAD EN MATERIA DE INFRAESTRUCTURA

Artículo 88. Fondo de Contingencias y Traslados.

Modifíquese el artículo 35 de la Ley 1753 de 2015, el cual quedará así:

Artículo 35. Fondo de Contingencias y Traslados. El Fondo de Contingencias de las Entidades Estatales creado por la Ley 448 de 1998 es el mecanismo de primera instancia autorizado para atender el pago de las obligaciones contingentes que contraigan las entidades sometidas al régimen obligatorio de contingencias contractuales del Estado, en cuanto se trate de riesgos comprendidos por este Fondo. Lo anterior sin perjuicio de la aplicación de los mecanismos alternativos para la atención de las obligaciones contingentes, de acuerdo con los lineamientos que para el efecto defina el Ministerio de Hacienda y Crédito Público, los cuales podrán contemplar la posibilidad de que dichos mecanismos se pacten contractualmente.

Parágrafo 1°. Las obligaciones contingentes que son atendidas por el Fondo mantendrán su naturaleza y condición de contingentes, siempre y cuando estén aprobadas en el respectivo plan de aportes y hasta el monto estipulado en este, sin que su cobertura quede condicionada al momento de la realización de los aportes al Fondo.

Así mismo, con cargo a los recursos del Fondo de Contingencias se podrán atender los intereses asociados a las obligaciones contingentes, exclusivamente dentro de los plazos establecidos en cada contrato. Se podrán cubrir con plazos adicionales las contingencias que se presenten en las concesiones viales de cuarta generación 4G.

Parágrafo 2°. La entidad que administre el Fondo de Contingencias de las Entidades Estatales podrá, previa solicitud de la entidad aportante, transferir recursos de uno a otro riesgo del mismo u otro proyecto de la misma entidad, con la finalidad de atender las obligaciones contingentes amparadas. Dicha transferencia deberá contar con la aprobación previa del plan de aportes por parte de la Dirección General de Crédito Público y Tesoro Nacional del Ministerio de Hacienda y Crédito Público, siempre y cuando cumpla los siguientes requisitos:

(i) cuando la entidad aportante determine a través del seguimiento que el riesgo ha disminuido totalmente, caso en el que el valor a transferir será el 100% del saldo de la subcuenta; o

(ii) cuando la entidad aportante determine a través del seguimiento que el riesgo ha disminuido parcialmente, caso en el cual el valor a transferir será el exceso del saldo en la subcuenta.

Artículo 89. Fondo de Contingencias de las Entidades Estatales.

Modifíquese el artículo 2° de la Ley 448 de 1998, el cual quedará así:

Artículo 2°. Fondo de Contingencias de las Entidades Estatales. El Fondo de Contingencias de las Entidades Estatales es una cuenta especial sin personería jurídica administrada por el Ministerio de Hacienda y Crédito Público. Los recursos, así como los asuntos relacionados con pasivos del Fondo, serán administrados por la Dirección General de Crédito Público y Tesoro Nacional.

Artículo 90. Aprobación y Seguimiento de la Valoración de las Contingencias.

Adiciónese un Parágrafo al artículo 6° de la Ley 448 de 1998, así:

Parágrafo. Las entidades territoriales y sus descentralizadas deberán crear su propio fondo de contingencias; para tal efecto determinarán las metodologías de valoración según el tipo de pasivo contingente previsto en el artículo 3° de la Ley 819 de 2003, las condiciones de cada entidad y deberán incluir en sus presupuestos de servicio de deuda, las apropiaciones necesarias. Los aportes realizados al Fondo se entenderán ejecutados una vez transferidos al mismo y sólo podrán ser reembolsados al presupuesto de la entidad aportante como recursos de capital cuando se verifique en forma definitiva la no realización de los riesgos previstos.

La aprobación y seguimiento de las valoraciones de las que trata el presente Parágrafo solamente se efectuarán por parte de la Dirección General de Crédito Público y Tesoro Nacional cuando los aportes al fondo de contingencias de las entidades estatales se deriven de contingencias relacionadas con riesgos contractuales, providencias que impongan condenas o aprueben conciliaciones, y garantías, en los casos en los que se cuente con participación de recursos públicos de orden nacional y/o haya asunción de obligaciones contingentes por parte de la Nación o las entidades descentralizadas del orden nacional.

Artículo 91. Bienes Inmuebles Fiscales.

Los bienes inmuebles fiscales de propiedad de entidades públicas del orden nacional y territorial podrán utilizarse como medio de pago, garantía o fuente de financiación para adelantar la formulación, estructuración y ejecución de proyectos inmobiliarios que tengan como propósito o consecuencia resolver necesidades en materia de infraestructura para sedes administrativas, o misionales de entidades públicas, incluyendo instalaciones militares y carcelarias, así como de defensa y seguridad del Estado, y en consecuencia se entenderá que los respectivos inmuebles se requieren para el ejercicio de sus funciones.

En los proyectos inmobiliarios que se adelanten para resolver necesidades del sector defensa, y se desarrollen a través de otros organismos del Presupuesto General de la Nación, que involucren o no mecanismos como la fiducia mercantil, podrán diseñarse procesos de selección de contratistas entre aspirantes a contratar que cuenten con el respaldo de países con los cuales el Ministerio de Defensa Nacional hubiere firmado acuerdos o convenios. Los contratos que se celebren con el alcance descrito en este inciso son de defensa y seguridad del Estado para todos los efectos y en especial para lo dispuesto en el artículo 33 de la Ley 996 de 2005, o la norma que lo modifique, adicione o sustituya.

Si los proyectos a que se refiere este artículo son encargados para su ejecución a un particular, la remuneración, total o parcial podrá hacerse con los aportes, en dinero o en especie, según el mecanismo jurídico diseñado para tal fin.

El Ministerio de Defensa Nacional y la Policía Nacional podrán suscribir convenios con entidades públicas o privadas que les permitan recibir aportes para fortalecer las capacidades de la Fuerza Pública en áreas en donde se concentre la infraestructura crítica, productiva y de desarrollo.

Artículo 92.Estructuración de proyectos por parte de la Agencia Nacional Inmobiliaria “Virgilio Barco Vargas”.

La estructuración y ejecución de los proyectos inmobiliarios que lleve a cabo la Agencia Nacional Inmobiliaria “Virgilio Barco Vargas”, se podrá realizar sin requerir desembolso de recursos públicos y de acuerdo con la normativa aplicable al mecanismo fiduciario utilizado por la Agencia, como si se tratara de una asociación público-privada de iniciativa privada.

Los recursos que se generen en los proyectos inmobiliarios que se desarrollan mediante contratos de fiducia mercantil, provenientes del intercambio u operación predial que realice la Agencia Nacional Inmobiliaria “Virgilio Barco Vargas”, así como del ejercicio de su actividad, harán parte de los proyectos que se adelanten por este mecanismo y se ejecutarán y administrarán a través de los respectivos patrimonios autónomos, sin operación presupuestal alguna por parte de la Agencia.

Artículo 93. Infraestructura Inmobiliaria para la Administración Pública.

La Agencia Nacional Inmobiliaria Virgilio Barco Vargas, en desarrollo de su objeto de construir o gestionar, mediante Asociaciones Público-Privadas o contratación de obras, inmuebles destinados a entidades oficiales del orden nacional o territorial y a otros usos complementarios que pueda tener el mismo proyecto, podrá suscribir contratos de tracto sucesivo ya sea de arrendamiento o con cualquier otro compromiso contractual, por el mismo plazo que la Asociación Público- Privada o vehículo contractual de ejecución del proyecto inmobiliario requiera para la financiación del mismo y recuperación de la inversión antes de la reversión del inmueble a la misma Agencia cuando a ello hubiere lugar.

Artículo 94. Vigencias Futuras Agencia Nacional Inmobiliaria Virgilio Barco Vargas.

La autorización de compromisos de vigencias futuras de cualquier naturaleza para atender gastos de proyectos en que participa la Agencia Nacional Inmobiliaria Virgilio Barco Vargas, no estará sujeta al límite de autorizaciones para comprometer vigencias futuras.

Artículo 95. Fortalecimiento de la Infraestructura Física de las Entidades del Estado.

Con el propósito de modernizar, tecnificar y consolidar la institucionalidad de las entidades públicas, el Gobierno nacional podrá apropiar recursos para que dentro del Plan Plurianual de Inversiones y con cargo al Presupuesto General de la Nación, a partir de la vigencia de la presente ley se corrija la deficiencia en la capacidad de la infraestructura física de las instalaciones.

En concurrencia con los recursos que aporte el sector público del orden nacional, también se tendrán como fuente los procedentes del sector privado en alianza con Asociaciones Público-Privadas y los de cooperación internacional, con el objetivo de lograr la eficiencia en las inversiones.

Artículo 96. Planes de Movilidad Sostenible y Segura para Municipios, Distritos y Áreas Metropolitanas.

Modifíquese el artículo 1 de la Ley 1083 de 2006, el cual quedará así:

Artículo 1°. Planes de Movilidad Sostenible y Segura para Municipios, Distritos y Áreas Metropolitanas. Los municipios y distritos que deben adoptar planes de ordenamiento territorial en los términos del literal a) del artículo 9° de la Ley 388 de 1997, formularán, adoptarán y ejecutarán planes de movilidad. Los planes de movilidad sostenible y segura darán prelación a los medios de transporte no motorizados (peatón y bicicleta) y al transporte público con energéticos y tecnologías de bajas o cero emisiones.

En todo caso, los planes de movilidad deberán determinar objetivos y metas de movilidad sostenible, articulados con los respectivos planes de ordenamiento territorial, cuyo total cumplimiento deberá garantizarse mediante la formulación y ejecución de estrategias, programas y proyectos.

Cualquier municipio que esté fuera de esta obligación podrá formular, adoptar y ejecutar su plan de movilidad en el marco de los objetivos y metas de movilidad sostenible y segura, en especial capitales departamentales, municipios con nodos de comercio exterior, con intensidad turística, o con altos índices de contaminación o siniestralidad.

Las áreas metropolitanas definidas por el artículo 319 de la Constitución Política de Colombia y que se encuentren legalmente conformadas, deberán formular, adoptar y ejecutar planes de movilidad sobre la totalidad del territorio de los municipios que la conforman. Los planes de movilidad metropolitanos deberán formularse, adoptarse y ejecutarse con los mismos parámetros definidos para los municipios y distritos; así mismo, deberán garantizar concordancia con el nivel de prevalencia tanto de los planes integrales de desarrollo metropolitano como de los planes estratégicos de ordenamiento territorial metropolitano definidos por la Ley 1625 de 2013, que le corresponda a cada área metropolitana.

Los contenidos de los planes de desarrollo municipal y distrital de que trata la Ley 152 de 1994, deben armonizarse con los objetivos y metas de los planes de movilidad.

Los municipios y distritos que integran y hacen parte del territorio de un área metropolitana, deben armonizar igualmente sus planes de desarrollo con el plan de movilidad de la respectiva área metropolitana, en los términos del presente artículo.

La formulación de los planes de movilidad sostenible y segura deberá enmarcarse en la estrategia para la implementación de los Objetivos de Desarrollo Sostenible en Colombia.

Parágrafo. El Ministerio de Minas y Energía y el Ministerio de Ambiente y Desarrollo Sostenible, dentro de los seis (6) meses siguientes a la promulgación de esta ley, establecerá mediante reglamentación la definición de energéticos de bajas o cero emisiones, teniendo como criterio fundamental su contenido de componentes nocivos para la salud y el medio ambiente. El Ministerio de Transporte y el Ministerio de Ambiente y Desarrollo Sostenible expedirán la reglamentación de tecnologías vehiculares de bajas o cero emisiones. Las definiciones y reglamentaciones deberán ser actualizadas de manera cuatrienal considerando los constantes avances en los energéticos y en las tecnologías.

Artículo 97. Otras Fuentes de Financiación para los Sistemas de Transporte.

Modifíquese el artículo 33 de la Ley 1753 de 2015, el cual quedará así:

Artículo 33. Otras Fuentes de Financiación para los Sistemas de Transporte. Con el objeto de contribuir a la sostenibilidad de los sistemas de transporte, a la calidad del servicio y de su infraestructura, incrementar la seguridad ciudadana, la atención y protección al usuario, al mejoramiento continuo del sistema y contar con mecanismos de gestión de la demanda, las entidades territoriales podrán establecer recursos complementarios a los ingresos por recaudo de la tarifa al usuario, que podrán ser canalizados a través de fondos de estabilización y subvención. Las fuentes podrán ser las siguientes:

1. Recursos propios territoriales. Las autoridades de los departamentos, municipios, distritos o áreas metropolitanas podrán destinar recursos propios, incluyendo rentas y recursos de capital. La decisión anterior se adoptará mediante decreto municipal, distrital o mediante acuerdo metropolitano, el cual deberá contener como mínimo la destinación de los recursos, la fuente presupuestal y la garantía de la permanencia en el tiempo de los recursos, así como contar con concepto del Confis territorial o quien haga sus veces, y estar previstos en el Marco de Gasto de Mediano Plazo territorial con criterios de sostenibilidad fiscal.

2. Contribución por el servicio de parqueadero o de estacionamiento en vía. Los órganos territoriales podrán establecer una contribución a las tarifas al usuario de parqueaderos fuera de vía o estacionamientos en vía y podrán destinar recursos obtenidos por esta fuente para la sostenibilidad y calidad de sus sistemas de transporte. El hecho generador del tributo corresponde al uso del servicio de parqueaderos fuera de vía o estacionamiento en vía, los sujetos activos serán los municipios, distritos y áreas metropolitanas. Serán sujetos pasivos los usuarios del servicio gravado.

Corresponderá a las asambleas o concejos pertinentes definir los elementos del tributo y el sistema y método para definir los costos, y los responsables del cobro, declaración y consignación de los recursos recaudados, de manera que el tributo se ajuste a las condiciones locales.

Deberá cobrarse a todos aquellos usuarios que los estudios técnicos recomienden, considerando las vulnerabilidades de siniestralidad vial y la promoción de energéticos y tecnologías de cero o bajas emisiones.

3. Estacionamiento en vía pública. Las autoridades territoriales podrán destinar para la sostenibilidad y calidad de sus sistemas de transporte, una parte de los recursos que se hayan obtenido de las contraprestaciones económicas percibidas por el uso de vías públicas para estacionamiento.

4. Infraestructura nueva para minimizar la congestión. Las autoridades territoriales que hayan adoptado plan de movilidad podrán establecer precios públicos diferenciales por acceso o uso de infraestructura de transporte nueva construida para minimizar la congestión. Las autoridades territoriales podrán destinar recursos obtenidos por esta fuente para la sostenibilidad y calidad de sus sistemas de transporte.

El precio será fijado teniendo en cuenta el tipo de vía o zona; los meses, días u horas determinadas de uso; y el tipo de servicio del vehículo, el número de pasajeros o el tipo de vehículo.

Deberá cobrarse a todos aquellos usuarios que los estudios técnicos recomienden, considerando las vulnerabilidades de siniestralidad vial y la promoción de energéticos y tecnologías de cero o bajas emisiones.

5. Áreas con restricción vehicular. Las autoridades territoriales podrán definir áreas de congestión en las que sea necesario condicionar o restringir espacial o temporalmente el tránsito vehicular. El acceso a estas áreas podrá generar contraprestaciones o precios públicos a favor de la entidad territorial, quien definirá su tarifa y condiciones con base en estudios técnicos, con fundamento en el tipo de vía o zona; los meses, días u horas determinadas de uso; y el tipo de servicio del vehículo, el número de pasajeros o el tipo de vehículo, entre otros. Las autoridades territoriales podrán destinar recursos obtenidos por esta fuente para la sostenibilidad y calidad de sus sistemas de transporte.

6. Las entidades territoriales podrán destinar un porcentaje hasta del 60% del recaudo correspondiente a la entidad territorial por concepto de multas de tránsito para el funcionamiento sostenible de sus sistemas de transporte público masivo y colectivo o transporte no motorizado. Dicho porcentaje deberá ser definido y soportado por un análisis técnico y financiero que identifique los costos y gastos financiados por el concepto de multas, los programas y proyectos que se pueden financiar y los indicadores de seguimiento a los objetivos de seguridad vial.

7. Las autoridades territoriales podrán modificar las tarifas de los servicios de transporte público complementario a partir de la aplicación de factores tarifarios que permitirán obtener recursos para la sostenibilidad de otros servicios colectivos o masivos que operen en su jurisdicción.

8. Derecho real accesorio de superficie en infraestructura de transporte. Una entidad pública denominada superficiante, titular absoluta de un bien inmueble fiscal o de uso público destinado a la infraestructura de Transporte conforme a lo establecido en el artículo 4° de la Ley 1682 de 2013, podrá otorgar el derecho real de superficie de origen contractual, enajenable y oneroso, a un tercero denominado superficiario, por un plazo máximo de treinta (30) años, prorrogables hasta máximo veinte (20) años adicionales. El superficiario tendrá la facultad, conforme a la normatividad de ordenamiento territorial del lugar donde se ubique el bien inmueble y las disposiciones urbanísticas vigentes, de realizar y explotar por su exclusiva cuenta y riesgo, construcciones o edificaciones en áreas libres aprovechables con todos los atributos de uso, goce y disposición de las mismas, a fin de que tales desarrollos puedan soportar gravámenes y limitaciones al dominio, sin afectar el uso público, la prestación del servicio de transporte, ni restringir la propiedad del inmueble base del superficiante.

El derecho real de superficie se constituye mediante contratos elevados a escritura pública suscritos entre el titular del inmueble base y los terceros que serán superficiarios, los cuales contendrán la delimitación del área aprovechable, el plazo de otorgamiento del derecho, las condiciones de reversión de las construcciones, las causales de terminación del contrato, las obligaciones de las partes y la retribución que corresponde al superficiante, debiendo además inscribirse ante la Oficina de Registro de Instrumentos Públicos en el folio de matrícula inmobiliaria del predio sobre el cual se confiere el derecho real de superficie, en el que deberá realizarse una anotación de este como derecho accesorio, identificándose el área conferida al superficiario y los linderos de la misma y las construcciones, además deberán registrarse los actos jurídicos que se efectúen en relación con el derecho real de superficie.

La cancelación de la constitución de este derecho real accesorio de superficie procederá mediante escritura pública suscrita por las partes constituyentes, que será objeto de registro en el folio de matrícula inmobiliaria correspondiente y ante la Oficina de Registro competente.

Para otorgar el derecho real de superficie el superficiante deberá contar con un estudio técnico, financiero y jurídico, que valide y determine las condiciones y beneficios financieros y económicos que se generan a partir de su implementación y para la selección del superficiario el superficiante deberá sujetarse a las reglas propias de contratación que le apliquen a la entidad pública que actúe en tal calidad.

9. Además de las anteriores fuentes de financiación y pago, se podrán utilizar recursos de otras fuentes como valor residual de concesiones, valorización, subasta de norma urbanística, herramientas de captura del valor del suelo, sobretasa a la gasolina o al ACPM, cobro o aportes por edificabilidad adicional y mayores valores de recaudo futuro generados en las zonas de influencia de proyectos de renovación urbana, así como recursos obtenidos a través de ingresos no operacionales.

Artículo 98. Sostenibilidad de Sistemas de Transporte.

Modifíquese el artículo 14 de la Ley 86 de 1989, el cual quedará así:

“Artículo 14. Sostenibilidad de Sistemas de Transporte. Los sistemas de transporte colectivo y masivo deben ser sostenibles basados en la calidad en la prestación del servicio y en el control de la ilegalidad y la informalidad por parte de las entidades territoriales. Para ello las tarifas que se cobren por la prestación del servicio, sumadas a otras fuentes de pago de origen territorial si las hubiere, deberán ser suficientes para cubrir los costos de operación, administración, mantenimiento, y reposición de los equipos.

Los contratos de concesión y operación deben contemplar el concepto de sostenibilidad, y para el efecto se podrán realizar las modificaciones contractuales a que haya lugar.

Artículo 99. Apoyo a los Sistemas de Transporte.

El Gobierno nacional podrá apoyar técnica o financieramente la implementación de sistemas de transporte público colectivo o masivo terrestres, marítimos o fluviales en cualquiera de las jurisdicciones del territorio nacional, en sus etapas de diseño, ejecución u operación. Lo anterior de conformidad con el Marco Fiscal de Mediano Plazo y lo establecido en el artículo 14 de la Ley 86 de 1989 y en la Ley 310 de 1996.

Los sistemas de transporte cofinanciados por la Nación deberán ser soluciones de transporte que cumplan condiciones de calidad, utilizar eficientemente los recursos, incorporar energéticos y tecnologías vehiculares de cero o bajas emisiones y facilitar el acceso a personas con discapacidad o movilidad reducida, contemplar herramientas que contribuyan a la gestión del tráfico e involucran en los diseños la integración operacional de los sistemas de transporte con los terminales de transporte habilitados por el Ministerio de Transporte, aeropuertos, puertos y pasos de frontera según sea el caso, siempre que estas infraestructuras se encuentren ubicadas dentro de la jurisdicción donde operan los sistemas de transporte; así como contar con medidas orientadas a incrementar el uso de medios no motorizados y con empresas administradoras integrales encargadas de la operación.

Estos sistemas podrán ser:

i) Sistemas Integrados de Transporte Masivo (SITM) entendidos como aquellos que cuentan con infraestructura segregada para su uso exclusivo y cuyos agentes operadores y de recaudo sean concesionados o públicos;

ii) Sistemas Estratégicos de Transporte Público (SETP) como servicios de transporte colectivo integrados;

iii) Sistemas Integrados de Transporte Público (SITP) conformados por más de un modo o medio de transporte público integrados operacional y tarifariamente entre sí;

iv) Sistemas Integrados de Transporte Regional (SITR).

Dentro de los Sistemas de Transporte podrá existir un subsistema de transporte complementario el cual atenderá la demanda de transporte público que no cubra el sistema de transporte masivo, integrado, estratégico o regional.

La estructuración de los sistemas de transporte se realizará con autonomía por parte de las entidades territoriales, de conformidad con las necesidades propias de la ciudad o región. En caso de pretender la cofinanciación del Gobierno nacional se deberá involucrar a las entidades competentes de la Nación durante la elaboración de los estudios.

Las autoridades territoriales podrán realizar acciones que conduzcan a la sostenibilidad, calidad y cobertura de los sistemas de transporte público para lo cual pueden recurrir a la complementación, integración y articulación de las diferentes modalidades y servicios autorizados, haciendo uso de herramientas como los convenios de colaboración empresarial, acuerdos comerciales y todas aquellas acciones contra el transporte ilegal.

El servido de transporte automotor mixto podrá complementar o alimentar los sistemas de transporte para brindar conectividad entre las zonas rurales y urbanas.

Para la integración con el transporte intermunicipal de pasajeros de corta distancia, las autoridades territoriales, junto con el Ministerio de Transporte y la sociedad titular del sistema de transporte, según sea el caso, podrán aplicar las herramientas indicadas, para iniciar, terminar o hacer paradas intermedias de sus recorridos en nodos del sistema de transporte o en las terminales de transporte intermunicipal habilitadas por el Ministerio de Transporte, incluidas las de operación satélite periférica, para lo cual deberán disponer de la infraestructura o señalización necesaria que permita la integración. En todo caso, los vehículos de transporte intermunicipal que cubran rutas de media y larga distancia deberán iniciar y terminar sus recorridos en las terminales de transporte intermunicipales habilitadas para tal fin.

Parágrafo 1°. Es deber de las autoridades locales, entes gestores, concesionarios de operación y de recaudo, así como de las empresas operadoras del servicio de transporte, suministrar cualquier tipo de información solicitada por el Gobierno nacional.

Parágrafo 2°. Se podrán realizar proyectos bajo esquemas de asociaciones público-privadas, de conformidad con la Ley 1508 de 2012 o la norma que lo modifique o sustituya, para el desarrollo de sistemas de transporte público colectivo o masivo o de algunos de sus componentes o unidades funcionales, con recursos de cofinanciación de la Nación. Dicha cofinanciación será de hasta el 70% del menor valor que resulte entre 1) los desembolsos de recursos públicos solicitados para la ejecución del proyecto y 2) el valor estimado del costo y la financiación de las actividades de diseño, preconstrucción y construcción del proyecto. Dicho porcentaje será certificado por parte de la Entidad Territorial Beneficiaria de los recursos de cofinanciación.

Parágrafo 3°. El Ministerio de Transporte reglamentará la definición de transporte intermunicipal de corta, media y larga distancia. Basados en la calidad de la prestación del servicio y en el control de la ilegalidad y la informalidad por parte de las autoridades competentes.

Parágrafo 4°. Las autoridades territoriales conjuntamente con el Ministerio de Transporte, según sea el caso, podrán promover mecanismos de organización entre los sistemas de transporte público colectivo o masivo y las empresas de transporte intermunicipal de pasajeros de corta distancia.

Artículo 100. Cofinanciación de Sistemas de Transporte.

Modifíquese el artículo 2º de la Ley 310 de 1996, el cual quedará así:

Artículo 2º. Cofinanciación de Sistemas de Transporte. La Nación y sus entidades descentralizadas podrán realizar inversiones dentro del Marco Fiscal de Mediano Plazo con un mínimo del 40% y hasta por un 70% en proyectos de sistemas de transporte público colectivo o masivo, con dinero a través de una fiducia, o en especie de acuerdo con la reglamentación que para el efecto expida el Ministerio de Transporte.

Las inversiones financiables podrán ser el servicio de deuda; infraestructura física; sistemas inteligentes de transporte; costos de operación y adquisición total o parcial de vehículos nuevos o material rodante nuevo con estándares de bajas o cero emisiones, sin afectar el monto inicial de los recursos aprobados en el Conpes que dio origen a cada proyecto; que garanticen accesibilidad para población en condición de discapacidad o movilidad reducida. La adquisición, operación y mantenimiento de los activos cofinanciados son responsabilidad del ente territorial o de quien este delegue. Las disposiciones de este artículo tendrán vocación de permanencia en el tiempo.

El Ministerio de Transporte verifica el cumplimiento de los siguientes requisitos:

1. Que exista o se constituya una sociedad titular de carácter público que se encargue de la gestión del sistema de transporte. Esta sociedad deberá implementar los lineamientos de Gobierno corporativo emitidos por el Ministerio de Hacienda y Crédito Público para tal fin.

2. Que el proyecto respectivo tenga estudios de factibilidad técnica, ambiental, legales y financieros, aprobados por la entidad territorial que soporten, para las fases de planeación, construcción, operación y seguimiento, lo siguiente:

a) Definición del esquema operacional y financiero.

b) Definición del esquema institucional.

c) Aplicación de medidas para controlar y minimizar la ilegalidad.

d) Evaluación social y económica.

e) Definición de estrategias para su sostenibilidad, mantenimiento y actualización.

f) Identificación de fuentes de pago para alimentar el fondo de estabilización tarifaria.

g) Análisis de la viabilidad fiscal.

3. Que el proyecto respectivo cuente con un documento Conpes, que defina el sistema de transporte, así como las entidades encargadas de su diseño, construcción y operación con el cronograma respectivo, a partir del cual se autorizarán los desembolsos de manera progresiva de acuerdo con las necesidades y logros del proyecto, en especial aquellos hitos relacionados con la sostenibilidad operacional del sistema.

4. Que el sistema de transporte sea coherente con los objetivos del plan de movilidad adoptado en los casos ordenados por la ley, el plan de ordenamiento territorial y el plan de desarrollo territorial.

5. Que el proyecto propuesto esté debidamente registrado en el Banco de Proyectos de Inversión Nacional, y cumpla los requisitos establecidos en las disposiciones vigentes sobre la materia.

6. Que esté formalmente constituida una autoridad de transporte del sistema de transporte propuesto.

PARÁGRAFO 1º. Los estudios ambientales, técnicos, legales o financieros que sean realizados por parte de las entidades territoriales o quien estas deleguen hacen parte de su autonomía territorial; el Gobierno nacional, brindará el acompañamiento técnico necesario sin que esto implique su validación o aprobación a los estudios realizados.

Los estudios a los que hace alusión este Parágrafo deberán realizarse bajo el marco de la estrategia para la implementación de los Objetivos de Desarrollo Sostenible en Colombia.

PARÁGRAFO 2º. Para el caso de cofinanciación de sistemas transporte, el Confis podrá autorizar vigencias futuras de acuerdo con el respectivo cupo sectorial para el desarrollo de Asociaciones Público-Privadas.”

Artículo 101.Concesiones Portuarias sobre nuevos Emplazamientos.

Tratándose de concesiones portuarias entiéndase como puerto Greenfield el nuevo emplazamiento portuario construido en aguas profundas, es decir con profundidades naturales iguales o mayores a 17 metros en marea cero, que requieren el desarrollo de toda la infraestructura complementaria de accesos marítimos y terrestres o fluviales, así como la conectividad con otros modos de transporte y de comunicaciones con el resto del país y el mundo. Para este tipo de concesiones, el financiamiento de las inversiones requeridas en accesos y conectividad podrá ser contemplado en el Plan de Negocio del concesionario, y el plazo inicial de la concesión podrá ser hasta de 40 años, de conformidad con el Parágrafo 1° del presente artículo.

Parágrafo 1°. El plazo de concesión podrá ser prorrogado hasta por el plazo inicialmente pactado, siempre que se cuente con el concepto previo y favorable del Conpes, si fuere necesario para que, en condiciones razonables de operación, los titulares de los contratos de concesión portuaria recuperen el valor de las inversiones hechas o para estimular a estos a prestar el servicio público portuario y deberán soportarse en el modelo financiero que establezca el tiempo que se requiera para la recuperación de las inversiones efectuadas.

Parágrafo 2°. Las condiciones de prórroga y reversión serán las mismas contempladas en el artículo 8° de la Ley 1ª de 1991 o aquel que lo modifique o complemente.

Artículo 102. Cambio en las Condiciones de la Concesión.

Modifíquese el artículo 17 de la Ley 1ª de 1991, el cual quedará así:

Artículo 17. Cambio en las condiciones de la Concesión. Para que una sociedad portuaria pueda cambiar las condiciones en las cuales se le aprobó una concesión portuaria, debe obtener permiso previo y escrito de la entidad concedente, que sólo lo otorgará si con ello no se infiere perjuicio grave e injustificado a terceros, y si el cambio no es de tal naturaleza que desvirtúe los propósitos de competencia en los que se inspiran los procedimientos descritos en los artículos 9°, 10, 11 y 12, de esta ley. En el caso que ocurran modificaciones sustanciales podrá variarse la metodología de la contraprestación que se paga a la Nación. Se entiende por modificación sustancial a la concesión portuaria, el plazo, como la modificación en la ubicación, linderos y/o extensión zona de uso público otorgada en concesión.

Parágrafo 1°. La entidad concedente efectuará el estudio de las solicitudes de modificación a los contratos de concesión portuaria y establecerá, en cada caso y conforme las disposiciones contractuales, si lo pretendido con la solicitud implica una modificación sustancial de la concesión portuaria, caso en el cual deberá surtirse el procedimiento que para tal efecto se establece en el artículo 2.2.3.3.3.5 del Decreto 1079 de 2015, o aquel que lo sustituya, modifique o complemente.

Artículo 103. Intervención de la red vial, fluvial y aeropuertos regionales.

El Instituto Nacional de Vías (Invías) y la Unidad Administrativa Especial de Aeronáutica Civil podrán apoyar la financiación de proyectos para la intervención de la red vial, fluvial y los aeropuertos regionales de competencia de las entidades territoriales, previo a los criterios de priorización definidos por el Gobierno nacional y de acuerdo con lo previsto en el Marco Fiscal de Mediano Plazo y con el Marco de Gasto del correspondiente sector.

En virtud del apoyo a las entidades territoriales, el Invías y la Unidad Administrativa Especial de Aeronáutica Civil podrán adquirir, materiales, equipos, y la mano de obra requerida para su ejecución y podrán concurrir en la cofinanciación entidades de carácter privado. En todo caso, el Invías y la Aeronáutica Civil adoptarán las medidas requeridas para la ejecución de los recursos, entre otros, en convenio con los municipios.

Artículo 104. Participación de entidades de naturaleza pública o mixta.

Modifíquese el Parágrafo del artículo 8° de la Ley 1508 de 2012, el cual quedará así:

Parágrafo. Podrán ser contratantes de esquemas de Asociación Público- Privada bajo el régimen previsto en la presente ley, las Empresas Industriales y Comerciales del Estado, las Sociedades de Economía Mixta en las que el Estado tenga participación superior al cincuenta por ciento (50%), sus filiales y las Sociedades entre Entidades Públicas con participación mayoritaria del Estado superior al cincuenta por ciento (50%) y las empresas de servicios públicos domiciliarios oficiales o mixtas.

En el caso en que las entidades a que se refiere el inciso anterior decidan optar por esquemas de Asociación Público Privada bajo el régimen previsto en la presente ley, dichas empresas o sociedades deberán dar cumplimiento a lo previsto en la misma y sujetarse a las disposiciones particulares que les sean aplicables en materia contractual y presupuestal.

Cuando las entidades a que se refiere el primer inciso del presente Parágrafo decidan no acogerse a los esquemas de Asociación Público Privada bajo el régimen previsto en la presente ley, podrán contratar esquemas de participación privada en infraestructura conforme a su régimen de contratación, incluyendo la utilización, cuando a ello haya lugar, de la concesión de que trata el numeral 4 del artículo 32 de la Ley 80 de 1993.

Lo anterior, sin perjuicio de que las entidades a las que se refiere el primer inciso de este Parágrafo puedan presentar oferta para participar en los procesos de selección de esquemas de asociación público- privada regidos por esta ley, siempre que cumplan con los requisitos establecidos para el efecto en el respectivo proceso de selección.

Artículo 105. Celebración de Contratos de Obra Pública.

Modifíquese el artículo 205 de la Ley 1753 de 2015, el cual quedará así:

Artículo 205.Celebración de Contratos de Obra Pública en infraestructura concesionada. El Instituto Nacional de Vías (Invías) y la Unidad Administrativa Especial de Aeronáutica Civil (Aerocivil) podrán, excepcionalmente, celebrar y ejecutar contratos de obra pública para realizar obras complementarias sobre infraestructura concesionada, sin que sea necesaria la desafectación de la infraestructura a intervenir, con el fin de garantizar la continuidad de la prestación del servicio en condiciones de seguridad, transitabilidad, funcionalidad y/o seguridad de la infraestructura de transporte; impedir el deterioro de la infraestructura o la afectación de la comunidad; y mitigar el riesgo de pérdida del patrimonio vial.

El objeto de dichos contratos de obra pública no podrá comprender obras o inversiones que cambien sustancialmente el alcance del proyecto. La realización de la obra pública deberá ser pactada mediante convenio a celebrarse entre el Invías o la Aerocivil y la entidad pública a cargo del contrato de concesión. En estos convenios se definirá la fuente de financiación y entidad responsable de la ejecución y mantenimiento de la obra, así como las demás condiciones necesarias para el efecto. Previamente, la entidad estatal concedente de la infraestructura y el concesionario, deberán acordar los términos en que este colaborará y apoyará la realización de dichas obras.

Parágrafo. La infraestructura de transporte-modo carretero a cargo de la Nación, construida a partir de la fecha de expedición de la presente ley, entendiéndose tanto la concesionada como no concesionada deberá garantizar la adecuada disponibilidad de zonas de servicios complementarios como: estaciones de combustible, zonas de descanso, servicios sanitarios y de alimentación para los usuarios de las carreteras.

Artículo 106. Destinación de aportes de la Agencia Nacional de Infraestructura (ANI) en situaciones de reversión de infraestructura por terminación anticipada.

Cuando por la terminación anticipada del contrato de concesión, se efectúe la reversión de infraestructura, se podrán destinar parcial o totalmente los aportes previstos para la Agencia Nacional de Infraestructura que habrían de ser transferidos a los concesionarios en las vigencias anuales sucesivas respetando la anualidad correspondiente, así como los ingresos provenientes de los peajes previstos en el modelo financiero como ingresos de los concesionarios, para dar continuidad a las obras, garantizar la transitabilidad, funcionalidad y seguridad de la infraestructura de transporte revertida, así como para atender necesidades del sector transporte.

Para ello, el Ministerio de Transporte y sus entidades adscritas y vinculadas podrán reprogramar vigencias futuras autorizadas en los diferentes proyectos de inversión en la vigencia en la cual ocurra la reversión.

Artículo 107. Avales y garantías en el Marco de la Cofinanciación de Sistemas de Transporte.

La Nación podrá otorgar los avales o garantías a las operaciones de financiamiento que realicen las entidades en el marco de la cofinanciación de la que trata el inciso 2° del artículo 14 de la Ley 86 de 1989, modificada por el artículo 31 de la Ley 1753 de 2015. En estos eventos, las entidades estatales podrán utilizar para la constitución de las contragarantías a favor de la Nación, entre otras, los flujos correspondientes a las vigencias futuras aprobadas por la instancia correspondiente.

Parágrafo 1°. Para la constitución de las contragarantías a favor de la Nación, se podrán otorgar como contragarantía los flujos correspondientes a las vigencias futuras de las entidades de los órdenes nacionales o territoriales aprobados por las instancias correspondientes.

Parágrafo 2°. En lo no previsto en el presente artículo se aplicará lo dispuesto en el Decreto 1068 de 2015 y demás normas vigentes.

Artículo 108. Contribución Especial de Vigilancia para la Superintendencia de Transporte.

Modifíquese el artículo 36 de la Ley 1753 de 2015, el cual quedará así:

Artículo 36. Contribución Especial de Vigilancia para la Superintendencia de Transporte. La Superintendencia de Transporte como establecimiento público con personería jurídica, cobrará una contribución especial de vigilancia, la cual, junto con las multas impuestas en ejercicio de sus funciones, tendrán como destino el presupuesto de la Superintendencia. La contribución será cancelada anualmente por todas las personas naturales y/o jurídicas que estén sometidas a su vigilancia, inspección y/o control de acuerdo con la ley o el reglamento.

La contribución especial de vigilancia se fijará por parte de la Superintendencia de Transporte conforme a los siguientes criterios:

1. Con base en los ingresos brutos derivados de la actividad de transporte que perciba el sujeto supervisado durante el período anual anterior, la Superintendencia de Transporte, mediante resolución, establecerá la tarifa de la contribución a cobrar que no podrá ser superior al cero coma veintiuno porciento (0,21%) de dichos ingresos brutos.

2. La contribución deberá cancelarse anualmente, en el plazo que para tal efecto determine la entidad y será diferencial dependiendo de si la supervisión es integral, objetiva o subjetiva.

Parágrafo 1°. Para efectos del presente artículo, se entenderá por ingresos brutos derivados de la actividad de transporte, todos aquellos que recibe el supervisado por las actividades relacionadas con el tránsito, transporte, su infraestructura o sus servicios conexos y complementarios, durante el período anual anterior, sin restarle las contribuciones, gastos, costos, tributos, descuentos y deducciones.

Parágrafo 2°. Para concesiones y otras formas de asociaciones público- privadas se entenderá por ingresos brutos derivados de la actividad de transporte, aquellos ingresos del concesionario en virtud del contrato, y que se liquidarán teniendo en cuenta los ingresos brutos ordinarios y extraordinarios determinados con base en las normas establecidas para el impuesto sobre la renta y complementarios fijadas en el estatuto tributario y su reglamentación, diferentes de los ingresos recibidos con fuente Presupuesto General de la Nación, entidades territoriales u otros fondos públicos.

Parágrafo 3°. Los concesionarios de puertos de servicio privado pagarán la contribución especial de vigilancia teniendo en cuenta como base de liquidación, la cifra resultante de multiplicar las toneladas movilizadas en el año inmediatamente anterior por la tarifa calculada anualmente por la Superintendencia de Transporte para cada tipo de carga de acuerdo con la metodología establecida en los planes de expansión portuaria y demás normas concordantes.

Parágrafo 4°. Para efectos del control en el pago de la contribución aquí prevista, la Superintendencia de Transporte reglamentará la inscripción y registro de los operadores portuarios, marítimos y fluviales.

Artículo 109. Protección de Usuarios de Transporte Aéreo.

La Superintendencia de Transporte es la autoridad competente para velar por la observancia de las disposiciones sobre protección al usuario del transporte aéreo, así como para adelantar las investigaciones e imponer las sanciones o medidas administrativas a que haya lugar por las infracciones a las normas aeronáuticas en lo referente a los derechos y deberes de los usuarios del transporte aéreo, excluyendo aquellas disposiciones relacionadas con la seguridad operacional y seguridad de la aviación civil; cuya competencia permanecerá en la Unidad Administrativa Especial de Aeronáutica Civil. Las multas impuestas por la Superintendencia de Transporte tendrán como destino el presupuesto de esta.

Parágrafo. Los cargos y recursos de la Unidad Administrativa Especial de Aeronáutica Civil para la protección de usuarios del modo de transporte aéreo serán trasladados a la Superintendencia de Transporte. En todo caso, el Gobierno nacional garantizará que la Superintendencia de Transporte cuente con el presupuesto necesario para la protección de los usuarios del sector.

 Artículo 110. Protección al Turista.

Modifíquese el Parágrafo 2° y adiciónese un Parágrafo transitorio al artículo 25 de la Ley 1558 de 2012 el cual quedará así:

Parágrafo 2°. Las reclamaciones que se susciten en desarrollo de la prestación y comercialización del servicio del transporte aéreo, serán resueltas por la Superintendencia de Transporte como única entidad competente del sector, dando aplicación al procedimiento sancionatorio del Código de Procedimiento Administrativo y de lo Contencioso Administrativo y demás normas concordantes.

Parágrafo transitorio. Las investigaciones iniciadas con anterioridad a la entrada en vigencia de esta ley seguirán en cabeza de la Unidad Administrativa Especial de Aeronáutica Civil y culminarán de conformidad con el régimen jurídico y procedimiento con el cual se iniciaron.

Artículo 111. Reprogramación de Vigencias Futuras del Sector Transporte.

Con el fin de atender gastos prioritarios del Sector Transporte y mantener la consistencia fiscal del Presupuesto General de la Nación, las entidades que conforman el Sector podrán recomponer el presupuesto a través de la reprogramación de los compromisos realizados con cargo a vigencias futuras, autorizadas en los diferentes proyectos de inversión.

El Gobierno nacional hará los ajustes necesarios mediante decreto anual, debidamente motivado, sin cambiar, en todo caso, el monto total de gasto de inversión del sector para la vigencia fiscal, aprobado por el Congreso.

Artículo 112.Vigencias Futuras de la Nación y las Entidades Estatales del Orden Nacional para Proyectos de Asociación Público Privada.

Adiciónese el siguiente Parágrafo al artículo 26 de la Ley 1508 de 2012:

Parágrafo. Las entidades estatales del orden nacional que cuenten con recursos propios o fondos especiales destinados al desarrollo de proyectos de Infraestructura, podrán destinar estos recursos para el desarrollo de proyectos de Asociación Público Privada (APP), sin que estos sean contabilizados dentro del límite anual de autorizaciones de vigencias futuras establecido por el Consejo Nacional de Política Económica y Social (Conpes) para el desarrollo de dichos proyectos. Sin perjuicio de lo anterior, la solicitud de autorización de vigencia futuras al Consejo de Política Fiscal (Confis) para proyectos de Asociación Público Privada deberá estar acompañada de un análisis de disponibilidad y sostenibilidad de los ingresos propios o de la fuente de ingreso del respectivo fondo público durante el periodo que demande la ejecución del proyecto, de conformidad con los compromisos de pago proyectados.

Artículo 113. Requisitos para Proyectos de Asociación Público Privada que requieren desembolsos de Recursos Públicos en Entidades Territoriales.

Modifica el numeral 6, 7 y el Parágrafo 2° del artículo 27 de la Ley 1508 de 2012, así:

6. La autorización por parte de la Asamblea o Concejo respectivo, para asumir obligaciones con cargo al presupuesto de vigencias futuras para proyectos de Asociación Público Privada podrá efectuarse en cualquier momento y superar el período de Gobierno del respectivo gobernador o alcalde. El plazo de dicha autorización no podrá exceder el plazo previsto en el artículo 6° de la Ley 1508 de 2012.

7. Las vigencias futuras que se expidan deberán cumplir las normas vigentes que regulan la materia y los parámetros previstos en el presente artículo, incluyendo la aprobación previa de la valoración de riesgos y pasivos contingentes por parte del Ministerio de Hacienda y Crédito Público.

Estas vigencias futuras podrán ser aprobadas en el último año de Gobierno, hasta por el plazo de duración del proyecto respectivo.

Parágrafo 2°. Para la presentación de estos proyectos al Ministerio de Hacienda y Crédito Público se deberá contar con la validación financiera por parte de alguna de las entidades financieras públicas de segundo piso o estructuradoras públicas del orden nacional.

Se exceptúan de la mencionada validación, aquellos proyectos que han sido estructurados por una estructuradora pública del orden nacional o el Departamento Nacional de Planeación.

Artículo 114. Trámites de Proyectos de Interés Nacional y Estratégico.

Las entidades que determinan la viabilidad o que expidan permisos y licencias para el desarrollo de los Proyectos de Interés Nacional y Estratégico, deberán darle prioridad a dichos proyectos sobre cualquier otro proyecto.

Artículo 115. Asociaciones Público-Privadas para Escenarios Públicos.

Para el trámite de asociaciones público privadas de Iniciativa privada para la construcción, administración, mantenimiento y adecuación de escenarios públicos tales como estadios, coliseos deportivos, centros de convenciones o similares, los tiempos para la evaluación se podrán reducir hasta la mitad.

Artículo 116. Evaluación de los Proyectos de Asociación Público Privada de Iniciativa Privada.

El artículo 19 de la Ley 1882 de 2018 quedará así:

Artículo 19. Evaluación de los Proyectos de Asociación Público Privada de Iniciativa Privada. Los originadores de proyectos de Asociación Pública Privada de Iniciativa privada, asumirán por su propia cuenta y riesgo, el costo estimado de su revisión y/o evaluación en la etapa de factibilidad.

Para el efecto, el originador deberá aportar, según corresponda:

a) El equivalente a 500 SMLMV en caso de proyectos cuyo presupuesto estimado de inversión sea inferior a 400.000 SMLMV, calculado en precios constantes al momento en que la entidad pública competente una vez finalizada la etapa de prefactibilidad manifiesta que el proyecto es de su interés, o

b) El equivalente al 0,1% del presupuesto estimado de Inversión para proyectos cuyo presupuesto estimado de inversión sea igual o superior a 400.000 smlmv, calculado en precios constantes al momento en que la entidad pública competente una vez finalizada la etapa de prefactibilidad manifiesta que el proyecto es de su interés.

La administración y manejo de los recursos aportados por el originador destinados a la revisión y/o evaluación del proyecto en etapa de factibilidad se realizará a través de un patrimonio autónomo que constituirá el originador. Los costos que genere la administración de dicho patrimonio autónomo deberán ser cubiertos por el originador de la iniciativa privada.

La entidad estatal encargada de la revisión y/o evaluación del proyecto será la beneficiaria del patrimonio autónomo y la encargada de autorizar la celebración de los contratos requeridos para el efecto, así como autorizar los pagos a que hubiere lugar en desarrollo de los mismos.

El costo estimado de la evaluación del proyecto en la etapa de factibilidad deberá girarse al patrimonio autónomo en el plazo establecido por la entidad al momento de pronunciarse sobre el mismo una vez finalizada la etapa de prefactibilidad. En caso de que el originador no consigne el valor de la evaluación del proyecto la entidad estatal no adelantará su respectiva evaluación.

Finalizada la evaluación del proyecto, se procederá a la liquidación del patrimonio autónomo y sus excedentes si los hubiere serán consignados a orden del tesoro nacional.

Artículo 117. Sistema de Recaudo y Sistema de Gestión y Control de Flota de Transporte.

Los sistemas de transporte que sean cofinanciados con recursos de la nación, adoptarán un sistema de recaudo centralizado, así como un sistema de gestión y control de flota, que integre los subsistemas de transporte complementario y de transporte masivo, integrado, estratégico o regional, utilizando mecanismos que así lo permitan, en especial el sistema de recaudo unificado, el cual permitirá el pago electrónico y en efectivo validado por medios electrónicos, y los sistemas de compensación entre operadores, de conformidad con lo dispuesto por la autoridad de transporte competente de acuerdo con los resultados de los estudios técnicos.

Se entiende como recaudo centralizado, aquel sistema mediante el cual se recaudan los dineros por concepto de la tarifa al usuario del sistema de transporte, los cuales se administran a través de un patrimonio autónomo o cualquier otro esquema de administración de recursos autorizado y administrado por una entidad vigilada por la Superintendencia Financiera de Colombia, constituido por el agente recaudador el cual estará sujeto a la auditoría permanente e irrestricta de la autoridad de transporte correspondiente.

Los sistemas de recaudo centralizado, de control de flota y de información y servicio al usuario, se constituyen en la herramienta tecnológica que controla la calidad, la cobertura y la continuidad del servicio del respectivo sistema de transporte, que deberá ser interoperable y suministrar información para que las autoridades definan políticas de movilidad, incluyendo demanda, oferta, tarifa y derechos de participación de los agentes. La totalidad de la información recolectada es propiedad del ente territorial o quien este delegue, teniendo libre acceso a las bases de datos.

En los sistemas de transporte masivos, ni los operadores o empresas de transporte, ni sus vinculados económicos podrán participar en la operación y administración de sistema de recaudo, salvo que se trate de una entidad pública. Vinculados económicos entendidos como tales los que se encuentren en los supuestos previstos por los artículos 450 a 452 del Estatuto Tributario.

Para los sistemas estratégicos de transporte público una entidad pública, o el agente operador de transporte o sus vinculados podrán operar el sistema de recaudo centralizado, caso en el cual el Ministerio de Transporte reglamentará las condiciones, garantizando la estabilidad jurídica de los actos administrativos expedidos a la entrada en vigencia de la presente ley por las entidades territoriales.

Cuando existan dos o más agentes operadores de transporte, estos y sus vinculados económicos podrán participar en la operación y administración del sistema de recaudo, siempre y cuando todos ellos conformen un único agente recaudador; cuando no se logre la participación de todos los operadores de transporte en el agente de recaudo, la entidad territorial, el ente gestor o quien estos deleguen deberá adjudicar la operación del servicio de recaudo centralizado mediante licitación pública o convenio interadministrativo.

La autoridad competente cancelará las habilitaciones correspondientes a las empresas de transporte masivo, integrado, estratégico, regional o complementario que no se integren al sistema de recaudo centralizado siempre y cuando los sistemas a integrar hayan sido cofinanciados con recursos de la Nación.

Parágrafo 1°. La entidad territorial, el ente gestor o quien estos deleguen podrá ostentar la calidad de operador del sistema de recaudo, del sistema de control y gestión de flota y del sistema de información al usuario, siempre y cuando los estudios así lo recomienden. En todo caso se garantizará la estabilidad jurídica de los actos administrativos expedidos a la entrada en vigor de la presente ley por las entidades territoriales. El Gobierno nacional reglamentará las condiciones técnicas, operativas y de seguridad de los sistemas de recaudo en el país.

Parágrafo 2°. Los agentes recaudadores de transporte público podrán ser habilitados por la autoridad competente para que además de recaudar la tarifa del servicio de transporte público, en sus diferentes modalidades, puedan recaudar el precio de otros productos o servicios afines o conexos a la movilidad. Para el efecto en el patrimonio autónomo o esquema financiero constituido para el recaudo centralizado se deberán generar subcuentas por cada concepto de pago.

Artículo 118. Nuevas fuentes de materiales para mantenimiento, mejoramiento y rehabilitación de vías terciarias y para el programa “Colombia Rural”.

En el evento que no utilicen fuentes de material titulado y licenciado ambientalmente para el mantenimiento, mejoramiento y rehabilitación de vías terciarias; previo a la ejecución de las obras, la entidad territorial definirá conjuntamente con la autoridad ambiental regional y la autoridad minera competentes, la ubicación y el volumen estimado de las fuentes de material requerido para el mantenimiento, mejoramiento y rehabilitación de vías terciarias y del programa “Colombia Rural” en el respectivo municipio. Con base en esta información la autoridad ambiental, una vez otorgada la autorización temporal por parte de la autoridad minera competente, procederá a pronunciarse, en un término máximo de dos (2) meses sobre la viabilidad de la licencia ambiental a estas fuentes de materiales, cuya vigencia no podrá ser inferior a la de la autorización minera.

Parágrafo. El Ministerio de Ambiente y Desarrollo Sostenible expedirá los términos de referencia para la elaboración del estudio de impacto ambiental de la licencia ambiental de que trata el presente artículo, dentro del mes siguiente a la expedición de la presente ley.

Artículo 119. Priorización para proyectos de inversión en agua potable, saneamiento básico, vías terciarias y energía eléctrica.

A partir de la expedición de la presente ley y durante su vigencia, el Órgano Colegiado de Administración y Decisión PAZ (Ocad Paz) garantizará la priorización de proyectos para mejorar los índices de cobertura de agua potable, saneamiento básico, desarrollo de vías terciarias y generación y ampliación de cobertura del servicio público de energía eléctrica hasta por la suma de uno punto cinco billones de pesos discriminados así: quinientos mil millones de pesos para agua y saneamiento básico, quinientos mil millones de pesos para vías terciarias y quinientos mil millones de pesos para generación y ampliación y cobertura del servicio público de energía eléctrica. La presente partida corresponde al bienio 2019-2020 del Presupuesto del Sistema General de Regalías y se mantendrá en similar proporción para el bienio 2021-2022.

La contratación de proyectos para el desarrollo de vías terciarias, se realizará atendiendo las normas vigentes, en particular las Leyes 1682 de 2013 y 1882 de 2018, y aquellas que las modifiquen o sustituyan.

En la financiación de las iniciativas de desarrollo de que trata este artículo podrán concurrir diferentes fuentes o mecanismos, entre otros, recursos provenientes de Asociaciones Público – Privadas (APP), obras por impuestos y otros aportes del Presupuesto General de la Nación.

Para definir la priorización de los proyectos de que trata el inciso primero del presente artículo, se tendrán en cuenta los criterios establecidos en el Decreto-ley 413 del 2018.

Lo dispuesto en el presente artículo guardará concordancia con el mecanismo de hoja de ruta establecido en el artículo 281 de la presente ley.

Artículo 120. Permisos especiales y temporales de vehículos combinados de carga (VCC).

El Instituto Nacional de Vías concederá permisos especiales, individuales o colectivos, temporales, con una vigencia máxima de dos (2) años, para el transporte de carga divisible por las vías nacionales, concesionadas o no, con vehículos combinados de carga, de conformidad con los criterios técnicos y jurídicos, determinados por el Ministerio de Transporte y el Instituto Nacional de Vías, relativos a la seguridad vial, infraestructura, movilidad y logística. Tales permisos se concederán por el Instituto Nacional de Vías hasta tanto se establezca la regulación que especifique los criterios definitivos para la operación de los vehículos combinados de carga siempre y cuando los estudios técnicos determinen su viabilidad.

Cuando el permiso verse sobre vías concesionadas, se deberá contar con el concepto previo de la Agencia Nacional de Infraestructura.

Artículo 121. Vehículos con matrícula extranjera en zonas de frontera cuyo modelo no supere el año 2016.

Los residentes de las Unidades Especiales de Desarrollo Fronterizo (UEDF) de que trata el artículo 4° de la Ley 191 de 1995, propietarios o tenedores de vehículos, motocicletas y embarcaciones fluviales menores, de matrícula del país vecino, cuyo modelo no supere el año 2016, que al 19 de agosto de 2015 hubieren ingresado y se encuentren circulando en la jurisdicción de los departamentos al que pertenecen las UEDF, deberán proceder al registro de dichos bienes ante los municipios de la UEDF o ante las autoridades locales que estos deleguen, dentro de los tres (3) meses siguientes al vencimiento del plazo de que trata el siguiente inciso, con el fin de poder circular de manera legal dentro de la jurisdicción de ese departamento.

Dentro de los treinta (30) días hábiles siguientes a la promulgación de la presente ley, el municipio de la UEDF informará a los interesados el procedimiento para adelantar el registro de que trata el presente artículo, el cual deberá contener como mínimo la siguiente información:

1. La identificación del propietario o tenedor, indicando el número de identificación correspondiente.

2. La individualización del bien objeto de registro, indicando cuando aplique para el tipo de bien, el número VIN, el número de serie del motor, o el número de serie que identifique el bien, el número de placa.

3. Declaración del propietario o tenedor en la que manifieste:

3.1. Ser residente en la Unidad Especial de Desarrollo Fronterizo en la que está realizando el registro correspondiente.

3.2. Que el origen del bien objeto de registro es legal.

Esta declaración se entenderá prestada bajo la gravedad del juramento con la firma del registro correspondiente.

4. Para vehículos y motocicletas deberá acreditar la existencia del Certificado de Revisión Técnico – mecánica y del Seguro Obligatorio de Accidentes de Tránsito, vigentes.

Los bienes que hayan sido objeto del registro de que trata el presente artículo, no deberán ser sometidos al trámite de internación temporal previsto en el Decreto 2229 de 2017 o en las normas que lo modifiquen.

Parágrafo 1°. El Registro de que trata el presente artículo deberá exhibirse ante las autoridades que lo requieran como documento que acredita la circulación legal permanente del bien, dentro de la jurisdicción del respectivo departamento.

Parágrafo 2°. El registro de que trata el presente artículo no determina la propiedad cuando este sea adelantado por el poseedor. Así mismo, no subsana irregularidades en su posesión o eventuales hechos ilícitos que se hayan presentado en su adquisición, y su disposición se encuentra restringida a la circulación del bien dentro de la jurisdicción del departamento en donde se hizo el registro.

Parágrafo 3°. La Dirección de Impuestos y Aduanas Nacionales podrá aprehender y decomisar los bienes de que trata el presente artículo en los siguientes casos:

i) Cuando los vehículos, motocicletas y embarcaciones fluviales menores, de matrícula del país vecino, no cuenten con el registro dentro de los plazos y términos aquí señalados y

ii) cuando se encuentren vehículos, motocicletas y embarcaciones fluviales menores, de matrícula del país vecino, por fuera de la jurisdicción del departamento que fuera señalada en el registro, de que trata este artículo.

Artículo 122. Internación temporal de vehículos con matrícula extranjera en zonas de frontera cuyo modelo sea año 2017 y siguientes.

Lo previsto en el artículo anterior no aplica para vehículos, motocicletas y embarcaciones fluviales menores, de matrícula del país vecino, cuyo modelo sea posterior al año 2016. En consecuencia, los bienes cuyo modelo sea 2017 y posteriores, dentro de los tres (3) meses siguientes a la entrada en vigencia de la presente ley deberán cumplir los requisitos previstos en el Decreto 2229 de 2017, modificado por el Decreto 2453 de 2018, so pena de la aprehensión y decomiso realizada por la Dirección de Impuestos y Aduanas Nacionales.

Artículo 123. Impuesto de vehículos automotores para vehículos de matrícula extranjera en zonas de frontera.

Los vehículos, motocicletas y embarcaciones fluviales menores, de matrícula de un país vecino inscritos en el registro de que trata el artículo 121 de esta ley, y aquellos que se hayan acogido a la medida de internación temporal de que trata el artículo anterior, causarán anualmente, en su totalidad, y a favor de las Unidades Especiales de Desarrollo Fronterizo, el impuesto de vehículos automotores de que trata la Ley 488 de 1998. El Ministerio de Transporte fijará la tabla de avalúo de los vehículos a que se refiere el presente artículo

SUBSECCIÓN 6. LEGALIDAD – OTRAS DISPOSICIONES

Artículo 124. Requisitos para la creación de Distritos.

Modifíquese el artículo 8° de la Ley 1617 de 2013, el cual quedará así:

Artículo 8°. Requisitos para la Creación de Distritos. La ley podrá decretar la conformación de nuevos distritos, siempre que se cumplan las siguientes condiciones:

1. Contar por lo menos con quinientos mil (500.000) habitantes, según certificación expedida por el Departamento Administrativo Nacional de Estadística (DANE), de acuerdo con el último censo realizado por esta entidad o estar ubicado en zonas costeras, ser capital de departamento, municipio fronterizo o contar con declaratoria de Patrimonio Histórico de la Humanidad por parte de la Unesco.

2. Presentar un documento con la sustentación técnica del potencial para el desarrollo de puertos o para el desarrollo de actividades turísticas, industriales, o económicas de gran relevancia y/o culturales, que acredite la capacidad institucional, de gestión y financiación para el desarrollo de dicha vocación.

3. Presentar un análisis de la capacidad fiscal que demuestre su suficiencia para asumir las necesidades institucionales y estructura administrativa asociada a la conformación de localidades.

4. Presentar los resultados de la diligencia de deslinde efectuada por el Instituto Geográfico Agustín Codazzi (IGAC) de conformidad con lo establecido en el artículo 10 de la Ley 1617 de 2013.

5. Contar con concepto previo y favorable sobre la conveniencia de crear el nuevo distrito, emitido por las Comisiones Especiales de Seguimiento al Proceso de Descentralización y Ordenamiento Territorial del Senado de la República y la Cámara de Representantes, y la Comisión de Ordenamiento Territorial como organismo técnico asesor, o el organismo que haga sus veces, concepto que será sometido a consideración de las Plenarias del Senado de la República y de la Cámara de Representantes, respectivamente.

6. Contar con concepto previo y favorable de los concejos municipales.

Parágrafo transitorio. Los distritos conformados con anterioridad a la entrada en vigencia de la presente ley continuarán sometiéndose a sus respectivas normas de creación. Los municipios que hayan iniciado el trámite para convertirse en Distritos antes del 30 de abril de 2019, seguirán rigiéndose por las normas constitucionales o legales con que iniciaron.

Artículo 125. Fusión y Denominación.

Fusiónese el Departamento Administrativo de Ciencia, Tecnología e Innovación (Colciencias), en el Ministerio de Ciencia, Tecnología e Innovación, el cual continuará con la misma denominación y como organismo principal de la Administración Pública del Sector Administrativo de Ciencia, Tecnología e Innovación.

El Ministerio de Ciencia, Tecnología e Innovación tendrá como domicilio principal la ciudad de Bogotá, D.C., y cumplirá los objetivos señalados en el acto de creación contenido en la Ley 1951 de 2019.

El Gobierno nacional, en ejercicio de las competencias permanentes conferidas mediante la Ley 489 de 1998, adoptará la estructura interna y la planta de personal que requiera el Ministerio de Ciencia, Tecnología e Innovación para su funcionamiento. Los actuales servidores de la planta de personal del Departamento Administrativo de Ciencia, Tecnología e Innovación continuarán ejerciendo las atribuciones a ellos asignadas, bajo la misma estructura y percibiendo la misma remuneración, hasta tanto sean incorporados a la planta de personal adoptada de conformidad con lo dispuesto en el presente artículo.

Dentro de lo seis (6) meses siguientes a la expedición de la presente ley, el Director del Departamento Administrativo de Ciencia, Tecnología e Innovación deberá ordenar y ejecutar las medidas administrativas necesarias, así como la adecuación y operación de los sistemas contables, financieros, de tesorería, almacenes y demás servicios de apoyo, para asegurar la correcta puesta en funcionamiento del Ministerio. Los acuerdos, contratos y convenios vigentes al momento de la expedición de esta ley, suscritos por el Departamento Administrativo de Ciencia, Tecnología e Innovación se entienden subrogados al Ministerio de Ciencia, Tecnología e Innovación, quien continuará con su ejecución en los mismos términos y condiciones, sin que para ello sea necesaria la suscripción de documento adicional alguno.

A partir de la fecha de expedición de la presente ley, se entienden transferidos los derechos y bienes muebles e inmuebles, así como subrogadas las obligaciones en las que sea parte el Departamento Administrativo de Ciencia, Tecnología e Innovación al Ministerio de Ciencia, Tecnología e Innovación, en los mismos términos y condiciones bajo las cuales se encuentran pactadas.

Los procedimientos administrativos, las acciones constitucionales y, en general, todos los procesos judiciales en los que sea parte el Departamento Administrativo de Ciencia, Tecnología e Innovación continuarán siendo atendidos por el Ministerio de Ciencia, Tecnología e Innovación.

El Ministerio de Ciencia, Tecnología e Innovación continuará a cargo del Fondo Nacional de Financiamiento para la Ciencia, la Tecnología y la Innovación, Fondo Francisco José de Caldas y cumpliendo las funciones que en relación con los demás fondos le fueron asignadas por la Constitución y la ley al Departamento Administrativo de Ciencia, Tecnología e Innovación (Colciencias).

A partir de la entrada en vigencia de la presente ley, todas las referencias que hagan las normas vigentes al Departamento Administrativo de Ciencia, Tecnología e Innovación, se entenderán efectuadas al Ministerio de Ciencia, Tecnología e Innovación.

Para todos los efectos legales, el Ministerio de Ciencia, Tecnología e Innovación creado mediante la Ley 1951 de 2019, sustituye al Departamento Administrativo de Ciencia, Tecnología e Innovación.

Artículo 126. Objetivos generales y específicos del Ministerio de Ciencia, Tecnología e Innovación.

Modifíquese el artículo 2° de la Ley 1951 de 2019, el cual quedará así:

Artículo 2°. Objetivos generales y específicos. Por medio de la presente ley se reconocen y actualizan los derechos de los ciudadanos y los deberes del Estado en materia del desarrollo del conocimiento científico, tecnológico y de innovación, que consolidan los avances hechos por las Leyes 29 de 1990 y 1286 de 2009, mediante los siguientes objetivos generales y específicos:

OBJETIVOS GENERALES 

1. Formular la política pública de ciencia, tecnología e innovación del país.

2. Establecer estrategias de transferencia y apropiación Social de la Ciencia, la Tecnología, la Innovación para la consolidación de una sociedad basada en el conocimiento.

3. Impulsar el desarrollo científico, tecnológico y la innovación de la Nación, programados en la Constitución Política de 1991 y en el Plan Nacional de Desarrollo, de acuerdo con las orientaciones trazadas por el Gobierno nacional.

4. Garantizar las condiciones necesarias para que los desarrollos científicos, tecnológicos e innovadores, se relacionen con el sector productivo y favorezcan la productividad y la competitividad.

5. Velar por la consolidación y fortalecimiento del Sistema Nacional de Ciencia, Tecnología e Innovación (SNCTI).

OBJETIVOS ESPECÍFICOS 

1. Fortalecer una cultura basada en la generación, apropiación y divulgación del conocimiento y la investigación científica, el desarrollo tecnológico, la innovación y el aprendizaje permanente.

2. Definir las bases para la formulación de un Plan Nacional de Ciencia, Tecnología e Innovación.

3. Incorporar la Ciencia, Tecnología e Innovación, como ejes transversales de la política económica y social del país.

4. Fortalecer el Sistema Nacional de Ciencia, Tecnología e Innovación (SNCTI), otorgando al nuevo Ministerio el liderazgo que conlleve a la óptima articulación de las organizaciones públicas y privadas, regionales, nacionales e internacionales, que permitan el desarrollo de una sociedad del conocimiento.

5. Definir las instancias e instrumentos administrativos y financieros por medio de los cuales se promueve la destinación de recursos públicos y privados al fomento de la Ciencia, Tecnología e Innovación.

6. Fortalecer la capacidad de transferencia de la tecnología producida en las universidades y centros de investigación y desarrollo tecnológico en beneficio del sector productivo nacional, a través del mejoramiento de la conectividad de las redes académicas de investigación y educación.

7. Articular y optimizar las instancias de liderazgo, coordinación y ejecución del Gobierno nacional y la participación de los diferentes actores de la política de Ciencia, Tecnología e Innovación.

8. Fortalecer el desarrollo regional a través de políticas integrales de descentralización de las actividades científicas, de desarrollo tecnológico y de innovación.

9. Fortalecer la internacionalización de las actividades científicas, de desarrollo tecnológico y de innovación, de acuerdo con las dinámicas internacionales.

10. Orientar el fomento de actividades de ciencia, tecnología e innovación hacia el mejoramiento de la competitividad, estableciendo vínculos desde el Sistema Nacional de Ciencia, Tecnología e Innovación (SNCTI), con otros sistemas tales como el Sistema Nacional de Innovación Agropecuaria (SNIA), el Sistema Nacional Ambiental (SINA), el sistema educativo, entre otros, en el marco del Sistema Nacional de Competitividad (SNC).

11. Establecer disposiciones generales que conlleven al fortalecimiento del conocimiento científico y el desarrollo de la innovación para el efectivo cumplimiento de la presente ley.

Artículo 127. Libertad Religiosa, de Cultos y Conciencia.

El Gobierno nacional con la coordinación del Ministerio del Interior, emprenderá acciones que promuevan la articulación intersectorial, interinstitucional y territorial para la garantía y goce efectivo del ejercicio del derecho a la libertad religiosa, de cultos y conciencia en el territorio nacional. Para el efecto, promoverá e impulsará la participación de los representantes de las entidades religiosas, el reconocimiento de las mismas, la garantía del libre ejercicio de estos derechos y realizará las acciones que permitan determinar el impacto social de las organizaciones y entidades religiosas, conforme a la Constitución y la ley

Artículo 128. Funciones de los municipios.

Adiciónese el siguiente Parágrafo al artículo 6° de la Ley 1551 de 2012 el cual quedará así:

Parágrafo 5°. Los denominados convenios solidarios de que trata el Parágrafo 3° del presente artículo también podrán ser celebrados entre las entidades del orden nacional y los organismos de acción comunal para la ejecución de proyectos incluidos en el respectivo Plan Nacional de Desarrollo.

Artículo 129. Reserva legal de las estrategias de Defensa Jurídica Nacional e Internacional.

Las estrategias de defensa jurídica nacional e internacional gozarán de reserva legal conforme lo dispuesto en los literales e) y h) y el Parágrafo del artículo 19 de la Ley 1712 de 2014, o la norma que los modifique, adicione o sustituya.

Las estrategias de defensa jurídica nacional e internacional son los documentos, conceptos, lineamientos e información a los que acuden la Agencia Nacional de Defensa Jurídica del Estado y/o las entidades públicas encargadas de hacer efectiva la defensa jurídica del Estado y de proteger sus intereses litigiosos.

La reserva cubrirá todas las etapas de la controversia o del proceso respectivo. Podrán publicarse parcialmente documentos y piezas de información cuya revelación no afecte la estrategia de defensa o los intereses legítimos del Estado.

Parágrafo 1°. Cuando la publicación de los acuerdos o contratos producto del uso de los mecanismos alternativos de arreglo directo o negociaciones en materia de conflictos de inversión en el ámbito internacional, pueda incidir en la gestión de otros procesos o acuerdos, estos podrán ser materia de reserva.

Parágrafo 2°. El término de la reserva sobre las estrategias de defensa jurídica nacional e internacional del Estado, podrá extenderse por el término máximo autorizado en la ley.

Parágrafo 3°. La reserva no abarcará aquellos documentos e informes que constituyan prueba necesaria a favor de quien los solicita y que se encuentren en poder del Estado en ejercicio de una función prevista en el ordenamiento jurídico.

Artículo 130. Contribución especial para laudos arbitrales de contenido económico.

Créase la contribución especial para laudos arbitrales de contenido económico a cargo de la persona natural o jurídica o el patrimonio autónomo a cuyo favor se ordene el pago de valor superior a setenta y tres (73) salarios mínimos legales mensuales vigentes. Estos recursos se destinarán a la financiación del sector Justicia y de la Rama Judicial.

Serán sujetos activos de la contribución especial, el Consejo Superior de la Judicatura, Dirección Ejecutiva de Administración Judicial, o quien haga sus veces, con destino al Fondo para la Modernización, Descongestión y Bienestar de la Administración de Justicia. La contribución especial se causa cuando se haga el pago voluntario o por ejecución forzosa del correspondiente laudo.

La base gravable de la contribución especial será el valor total de los pagos ordenados en el correspondiente laudo, providencia o sentencia condenatoria. La tarifa será el dos por ciento (2%). En todo caso, el valor a pagar por concepto del impuesto no podrá exceder de mil (1.000) salarios mínimos legales mensuales vigentes.

La entidad pagadora, ya sea persona natural o entidad pública o privada, en el momento en que efectúe pagos totales o parciales de las cuantías ordenadas en el laudo arbitral, deberá retener en la fuente la totalidad de la contribución especial causada con el respectivo pago. La retención practicada deberá ser incluida y pagada en la respectiva declaración mensual de retenciones en la fuente del agente retenedor, de acuerdo con las normas que regulan la retención en la fuente contenidas en el Estatuto Tributario. En el evento de que el pagador no tenga la calidad de agente retenedor, el perceptor del pago deberá autorretener el monto de la contribución especial causada de acuerdo con las disposiciones establecidas sobre el particular en el Estatuto Tributario.

Esta contribución no aplica para laudos arbitrales internacionales.

Parágrafo. El Gobierno nacional deberá girar en la primera quincena de cada semestre al Fondo para la Modernización, Descongestión y Bienestar de la Administración de Justicia, el monto recaudado por concepto de la contribución especial para laudos arbitrales de contenido económico.

Artículo 131. Registro Único de Decisiones Judiciales en Materia Penal y Jurisdicciones Especiales.

Créase el Registro Único de Decisiones Judiciales en Materia Penal y Jurisdicciones Especiales, administrado por la Policía Nacional – Dirección de Investigación Criminal e Interpol.

El administrador garantizará a la Fiscalía General de la Nación y demás autoridades judiciales, el acceso, consulta y actualización al Registro así como la protección del derecho del hábeas data de los ciudadanos. Este registro contendrá los antecedentes penales, requerimientos, anotaciones, sentencias y demás decisiones judiciales que hagan tránsito a cosa juzgada, proferidas por la Jurisdicción Ordinaria, la Justicia Penal Militar, la Jurisdicción Especial para la Paz y demás jurisdicciones especiales reconocidas por la Constitución Política.

El Gobierno nacional reglamentará las materias necesarias para garantizar el funcionamiento del registro y el proceso de actualización de la información.

Parágrafo 1°. El Consejo Superior de la Judicatura, la Justicia Penal Militar, la Jurisdicción Especial para la Paz, la Fiscalía General de la Nación deberán actualizar el sistema de información de acuerdo con los parámetros y protocolos que para tal efecto disponga el administrador del registro. Con este fin en un término de doce (12) meses, adoptarán las soluciones administrativas y tecnológicas necesaria para garantizar el suministro, registro y actualización de la información a través de canales seguros que garanticen su integridad, seguridad y confiabilidad.

Parágrafo 2°. El Instituto Nacional Penitenciario y Carcelario y demás Centros Carcelarios como ejecutores de las decisiones judiciales, deberán actualizar y proporcionar la información necesaria, de acuerdo con los parámetros y protocolos que para tal efecto disponga el administrador del registro.

Parágrafo 3°. Los registros referidos en los artículos 166, 167, 299, 305A y 320 de la Ley 906 de 2004 formarán parte del registro de que trata el presente artículo.

Artículo 132. Armonización del Plan Decenal del Sistema de Justicia con los Planes Nacionales de Desarrollo.

Con el objeto de promover la coordinación, eficiencia, eficacia y modernización en la administración de justicia y en las funciones de los organismos de control, el Ministerio de Justicia y del Derecho, el Departamento Nacional de Planeación, el Consejo Superior de la Judicatura, la Fiscalía General de la Nación, el Instituto Nacional de Medicina Legal y Ciencias Forenses, la Contraloría General de la República, la Procuraduría General de la Nación y la Defensoría del Pueblo o quienes hagan sus veces, concurrirán para adelantar las armonizaciones necesarias al Plan Decenal del Sistema de Justicia en concordancia con los Planes Nacionales de Desarrollo, de acuerdo con las prioridades que dichas entidades identifiquen en el sistema de justicia, y teniendo en cuenta el proceso continuo de planeación que comprende la formulación, la aprobación, la ejecución, el seguimiento y la evaluación

Artículo 133. Estrategia de Cárceles del Orden Nacional. La Nación podrá adelantar gestiones para la creación, fusión, supresión, dirección, organización, administración, sostenimiento y vigilancia de cárceles para personas detenidas preventivamente; sin perjuicio de la responsabilidad que hoy le asiste a las entidades territoriales, de acuerdo con el artículo 17 de la Ley 65 de 1993.

Lo anterior, teniendo en cuenta las siguientes disposiciones:

a) Las entidades territoriales identificarán predios para la localización de las cárceles, sobre los cuales la USPEC y el INPEC realizarán una evaluación a fin de establecer la viabilidad operativa de los mismos. Los predios identificados como viables deberán ser incorporados a los instrumentos de planeación territorial que correspondan con el uso del suelo requerido para la localización del equipamiento.

b) Las entidades territoriales podrán identificar, adquirir, habilitar y ceder a título gratuito al INPEC, el suelo con urbanismo y servicios públicos para la construcción de los establecimientos de reclusión nacionales, sin perjuicio de la facultad que les asiste para construir, administrar y operar cárceles del orden territorial.

c) Las entidades territoriales podrán convenir entre ellas la habilitación de suelo para la construcción de establecimientos de reclusión, así como su operación y mantenimiento conjunto. Igualmente, podrán celebrar convenios con la USPEC para la construcción, operación y mantenimiento de centros de reclusión.

d) Habilítese a la USPEC a realizar gestiones para la construcción conjunta de ciudadelas judiciales, establecidas en el artículo 21 de la Ley 65 de 1993.

Parágrafo 1°. Las disposiciones establecidas en el presente artículo, podrán desarrollarse mediante el esquema de asociación público privado, concesión u otras formas de contratación establecidas en la ley.

Parágrafo 2°. El Gobierno nacional tendrá en cuenta el análisis de impacto fiscal que se genera con la implementación de la medida y señalará la correspondiente fuente sustitutiva.

Parágrafo 3°. Con el fin de garantizar la financiación de la política carcelaria para personas detenidas preventivamente y condenadas por contravenciones que impliquen privación de la libertad, las entidades territoriales podrán crear un fondo de infraestructura carcelaria con ingresos provenientes de las siguientes fuentes:

1. Contribución especial de obra pública establecida en el artículo 6° de la Ley 1106 de 2006.

2. Las tasas y sobretasas de seguridad de que trata el artículo 8° de la Ley 1421 de 2010.

Artículo 134. Comportamientos relacionados con el cumplimiento de la normatividad que afectan la actividad económica.

Adiciónese un Parágrafo nuevo al artículo 92 de la Ley 1801 de 2016, Código Nacional de Policía y Convivencia, el cual quedará así:

Parágrafo 7°. Para efecto de la aplicación del numeral 16 del presente artículo, sobre comportamientos relacionados con desarrollar la actividad económica sin cumplir cualquiera de los requisitos establecidos en la normatividad vigente, el mismo se deberá interpretar y aplicar únicamente teniendo en cuenta los requisitos de apertura y funcionamiento que se establecen en el artículo 87 de la Ley 1801 de 2016.

En todo caso, el control de uso reglamentado del suelo y las disposiciones de ubicación, destinación o finalidad, para la que fue construida la edificación, es exclusiva de los Inspectores de Policía de conformidad con el numeral 12 del presente artículo. No procederá la medida de suspensión temporal de actividades.

Artículo 135. Dispositivos de escaneo para la vigilancia fronteriza y nacional.

El Gobierno nacional, a través del Ministerio de Defensa Nacional y la Policía Nacional o por intermedio de los órganos que este determine, en desarrollo de la estrategia de política pública sobre la consolidación de control institucional de los territorios, que enfrente la criminalidad y las economías ilegales, implementará y dispondrá de los mecanismos e inversiones necesarias que permitan la adquisición a cualquier título de equipos e infraestructura tecnológica que facilite y coadyuve a la vigilancia móvil fronteriza y nacional, buscando con ello, salvaguardar la Seguridad y Defensa Nacional del Estado, controlar los pasos de frontera, luchar contra las economías ilegales, defender y proteger a la población civil y las estructuras militares del Estado frente a eventuales ataques terroristas, combatir el tráfico de drogas, armas, explosivos, el contrabando y combatir la trata de personas, entre otras conductas delictivas.

Los equipos, infraestructura o software que se adquieran deberán facilitar y permitir de manera estacionaria, móvil o remota, el rastreo, escaneo, detección y transmisión de imágenes que faciliten el control, vigilancia y lucha contra las conductas antijurídicas antes referidas o para cualquier otra que llegare a ser considerada de importancia para la defensa y seguridad nacional y deberán permitir entre otros aspectos, (detección de objetos y personas) y visualización de rayos x, gamma, neutrones, retrodispersión u otras tecnologías, que permitan a la transmisión de las imágenes detectadas por los dispositivos que llegaren a ser adquiridos para las finalidades previamente mencionadas.

Artículo 136. Acceso a la Información.

La Contraloría General de la República para el cumplimiento de sus funciones, tendrá acceso sin restricciones a los sistemas de Información o bases de datos de las entidades públicas y privadas que dispongan o administren recursos y/o ejerzan funciones públicas.

La reserva legal de información o documentos no le será oponible a la Contraloría General de la República y se entenderá extendida exclusivamente para su uso en el marco de sus funciones constitucionales y legales.

Parágrafo 1°. Cada entidad deberá disponer de lo necesario para garantizar el suministro oportuno y en tiempo real de la información requerida por la Contraloría General de la República.

Parágrafo 2°. Además de las sanciones ya previstas en la ley, la Contraloría General de la República podrá suspender en el ejercicio del cargo, hasta por el término de 180 días y con el fin de impulsar el correcto ejercicio del control fiscal, a los servidores públicos que impidan o entorpezcan el acceso a la información, previo agotamiento del procedimiento legal administrativo correspondiente, en el cual se garantizará el derecho al debido proceso. El Contralor General de la República reglamentará la materia.

Artículo 137. Tarifa de Control Fiscal.

La liquidación y recaudo de la Tarifa de Control Fiscal a la que se refiere el artículo 4° de la Ley 106 de 1993, será de competencia del Ministerio de Hacienda y Crédito Público a partir de la presente vigencia fiscal.

Artículo 138. Recursos para el Fondo Bienestar de la Contraloría General de la República.

Adiciónese un Parágrafo al artículo 91 de la Ley 106 de 1993, el cual quedará así:

Parágrafo. Sin perjuicio de lo dispuesto en el presente artículo, la Contraloría General de la República podrá destinar recursos de su presupuesto, para la ejecución directa de planes y programas o el desarrollo de actividades de bienestar social para los servidores de la entidad, lo cual realizará en coordinación con el Fondo de Bienestar Social.

Artículo 139. Plan Decenal del Ministerio Público.

Con el objeto de promover la coordinación, eficiencia, eficacia y modernización del Ministerio Público, la Procuraduría General de la Nación coordinará con la Defensoría del Pueblo, las personerías distritales y municipales y la Vicepresidencia de la República, la elaboración del Plan decenal del Ministerio Público, el cual deberá formularse dentro de los dos (2) años siguientes a la promulgación de esta ley. La secretaría técnica a cargo de la elaboración y seguimiento del plan estará a cargo del Instituto de Estudios del Ministerio Público, y la Procuraduría General de la Nación presentará sus avances anualmente al Congreso de la República.

El Plan debe contener, por lo menos, los objetivos interinstitucionales, un plan de acción para lograrlos, las metas interinstitucionales, las actividades y la definición de los mecanismos de seguimiento dirigidas a preservar el interés general, luchar contra la corrupción y la efectividad de los derechos en Colombia.

Las entidades y organismos del Gobierno nacional, las universidades y los centros de investigación y las organizaciones de trabajadores, podrán formular recomendaciones.

Parágrafo. Las personerías distritales y municipales, oficinas de control interno disciplinario de todas las entidades públicas u órganos internos de control disciplinario estarán obligadas a reportar la información de todos los procesos que adelanten como operadores disciplinarios al Sistema de Información Misional de la Procuraduría General de la Nación, o el que haga sus veces, en el marco exclusivo de las leyes 734 de 2002 y 1952 de 2019, de forma que habrá un sistema unificado del registro disciplinario. Este sistema será coordinado por la Procuraduría General de la Nación como supremo director del Ministerio Público y para lo cual dispondrá las medidas necesarias para la adopción y uso del sistema de información en cada una de las entidades y dependencias enunciadas.

Artículo 140. Prórroga Código General Disciplinario.

Prorróguese hasta el 1° de julio de 2021 la entrada en vigencia de la Ley 1952 de 2019.

Artículo 141. Unidad de Investigación y Acusación (UIA) de la Jurisdicción Especial para la Paz (JEP).

El Estado, por intermedio del Gobierno nacional, garantizará la autonomía administrativa, técnica y presupuestal de la Unidad de Investigación y Acusación (UIA) de la Jurisdicción Especial para la Paz, para lo cual podrá hacer uso del plan de inversiones para la paz, contenido en el artículo 3° del Acto Legislativo número 01 de 2016.

Con el fin de garantizar el funcionamiento y autonomía administrativa, técnica y presupuestal de la Unidad de Investigación y Acusación (UIA), el Director ejercerá de manera exclusiva e independiente todas las funciones que correspondan para determinar la estructura y funcionamiento de la Unidad de Investigación y Acusación (UIA) de la Jurisdicción Especial para la Paz.

Parágrafo. El Director de la Unidad de Investigación y Acusación (UIA) en desarrollo de tal facultad, asignará la planta de personal que corresponda a cada dependencia, podrá variarla cuando lo considere necesario y establecerá el manual de requisitos y funciones de cada uno de los empleos.

La unidad de investigación y acusación de la Jurisdicción Especial para la Paz se identificará como una sección en el Presupuesto General de la Nación.

En ejercicio de estas atribuciones, el Director de la Unidad de Investigación Acusación (UIA), no podrá crear, con cargo al Tesoro, obligaciones que excedan el monto global fijado asignado en el Presupuesto a la unidad de investigación y acusación de la JEP.

Artículo 142. Cuentas de Depósito en el Banco de la República.

No serán susceptibles de medidas cautelares por parte de cualquier autoridad judicial o administrativa las cuentas de depósito en el Banco de la República, salvo aquellas derivadas de la adopción de institutos de salvamento y protección de la confianza pública y/o de la toma de posesión y liquidación forzosa administrativa establecidos en el Estatuto Orgánico del Sistema Financiero y de las contempladas en el artículo 6° de la Ley 964 de 2005.

Artículo 143. Bicentenario de la Independencia Nacional.

Modifíquese el artículo 13 de la Ley 1916 de 2018, el cual quedará así:

Artículo 13. Para efectos de la conmemoración del Bicentenario de la Campaña Libertadora de 1819 en todo el territorio nacional y sin perjuicio de las asignaciones que definan las entidades territoriales comprendidas en esta Ley u otros sujetos de derecho público o privado, se crea un fondo cuenta sin personería jurídica denominado Fondo del Bicentenario.

Este Fondo estará adscrito al Departamento Administrativo de la Presidencia de la República – Vicepresidencia de la República y se integra con los siguientes recursos:

1. Recursos que se le asignen en el Presupuesto General de la Nación.

2. Recursos que se le asignen del Presupuesto de las entidades territoriales.

3. Recursos que el Ministerio de Cultura designe para la finalidad señalada.

4. Recursos que otras entidades nacionales destinen para la conmemoración del Bicentenario de la Campaña Libertadora de 1819 a través de los convenios interadministrativos con el Ministerio de Cultura mediante los cuales podrán transferirse los recursos indicados.

5. Aportes de Cooperación Internacional.

6. Donaciones, transferencias o aportes en dinero que reciba.

7. Los recursos derivados de las operaciones que se realicen con los recursos del Fondo.

Para la vigencia de 2019 se harán las asignaciones presupuestales necesarias para el funcionamiento del fondo cuenta sin menoscabo de las apropiaciones existentes en entidades nacionales que se transfieran al mismo.

Parágrafo 1°. Como conmemoración del Bicentenario de la Independencia de Colombia el Banco de la República emitirá, por una sola vez, monedas conmemorativas de dichas efemérides.

Parágrafo 2°. Los recursos del fondo cuenta establecidos en este artículo podrán manejarse en un patrimonio autónomo.

Parágrafo 3°. El fondo cuenta establecido en el presente artículo tendrá vigencia hasta el 31 de diciembre de 2022.

Artículo 144. Liquidación de sociedades no operativas sujetas a la inspección, vigilancia y control de la Superintendencia de Sociedades.

Las sociedades mercantiles sujetas a la supervisión de la Superintendencia de Sociedades, que no renueven su matrícula mercantil por un término de tres (3) años o que no envíen la información requerida por dicha Superintendencia durante el mismo término, se presumirán como no operativas y, podrán ser declaradas de oficio como disueltas por la Superintendencia de Sociedades, salvo demostración en contrario de su parte.

Parágrafo. El Gobierno nacional establecerá y reglamentará la aplicación del procedimiento objeto del presente artículo.

Artículo 145. Tarifas a favor de las Cámaras de Comercio.

Modifíquese el artículo 124 de la Ley 6ª de 1992, el cual quedará así:

Artículo 124. Tarifas a favor de las Cámaras de Comercio. El Gobierno nacional fijará el monto de las tarifas que deban sufragarse en favor de las Cámaras de Comercio por concepto de las matrículas, sus renovaciones, cancelaciones e inscripciones de los actos, libros y documentos que la ley determine efectuar en el registro mercantil, así como el valor de los certificados que dichas entidades expidan en ejercicio de sus funciones.

Para el señalamiento de los derechos relacionados con la obligación de la matrícula mercantil y su renovación, el Gobierno nacional establecerá tarifas diferenciales en función del monto de los activos o de los Ingresos de actividades ordinarias del comerciante o del establecimiento de comercio, según sea el caso, con base en el criterio más favorable para la formalización de las empresas.

Las cuotas anuales que el reglamento de las Cámaras de Comercio señale para los comerciantes afiliados son de naturaleza voluntaria.

Parágrafo. Los derechos relacionados con la obligación de la matricula mercantil y su renovación en el caso de personas naturales que realicen una actividad comercial, serán establecidos en función del monto de los activos o de los ingresos relacionados con el desarrollo de su actividad comercial.

Artículo 146. Abogacía de la Competencia.

Modifíquese el artículo 7° de la Ley 1340 de 2009, el cual quedará así:

Artículo 7°. Abogacía de la Competencia. Además de las disposiciones consagradas en el artículo segundo del Decreto 2153 de 1992, la Superintendencia de Industria y Comercio podrá rendir concepto previo, a solicitud o de oficio, sobre los proyectos de regulación estatal que puedan tener incidencia sobre la libre competencia en los mercados. Para estos efectos las autoridades deberán informar a la Superintendencia de Industria y Comercio los actos administrativos que pretendan expedir. El concepto emitido por la Superintendencia de Industria y Comercio en este sentido no será vinculante. Sin embargo, si la autoridad respectiva se aparta de dicho concepto, la misma deberá manifestar de manera expresa dentro de las consideraciones de la decisión los motivos por los cuales se aparta.

Artículo 147. Transformación Digital Pública.

Las entidades estatales del orden nacional deberán incorporar en sus respectivos planes de acción el componente de transformación digital siguiendo los estándares que para este propósito defina el Ministerio de Tecnologías de la Información y las Comunicaciones. En todos los escenarios la transformación digital deberá incorporar los componentes asociados a tecnologías emergentes, definidos como aquellos de la Cuarta Revolución Industrial, entre otros.

Las entidades territoriales podrán definir estrategias de ciudades y territorios inteligentes, para lo cual deberán incorporar los lineamientos técnicos en el componente de transformación digital que elabore el Ministerio de Tecnologías de la Información y las Comunicaciones.

Los proyectos estratégicos de transformación digital se orientarán por los siguientes principios:

1. Uso y aprovechamiento de la infraestructura de datos públicos, con un enfoque de apertura por defecto.

2. Aplicación y aprovechamiento de estándares, modelos, normas y herramientas que permitan la adecuada gestión de riesgos de seguridad digital, para generar confianza en los procesos de las entidades públicas y garantizar la protección de datos personales.

3. Plena interoperabilidad entre los sistemas de información públicos que garantice el suministro e intercambio de la información de manera ágil y eficiente a través de una plataforma de interoperabilidad. Se habilita de forma plena, permanente y en tiempo real cuando se requiera, el intercambio de información de forma electrónica en los estándares definidos por el Ministerio TIC, entre entidades públicas. Dando cumplimiento a la protección de datos personales y salvaguarda de la información.

4. Optimización de la gestión de recursos públicos en proyectos de Tecnologías de la Información a través del uso de los instrumentos de agregación de demanda y priorización de los servicios de nube.

5. Promoción de tecnologías basadas en software libre o código abierto, lo anterior, sin perjuicio de la inversión en tecnologías cerradas. En todos los casos la necesidad tecnológica deberá justificarse teniendo en cuenta análisis de costo-beneficio.

6. Priorización de tecnologías emergentes de la Cuarta Revolución Industrial que faciliten la prestación de servicios del Estado a través de nuevos modelos incluyendo, pero no limitado a, tecnologías de desintermediación, DLT (Distributed Ledger Technology), análisis masivo de datos (Big data), inteligencia artificial (AI), Internet de las Cosas (IoT), Robótica y similares.

7. Vinculación de todas las interacciones digitales entre el Estado y sus usuarios a través del Portal Único del Estado colombiano.

8. Implementación de todos los trámites nuevos en forma digital o electrónica sin ninguna excepción, en consecuencia, la interacción del Ciudadano-Estado sólo será presencial cuando sea la única opción.

9. Implementación de la política de racionalización de trámites para todos los trámites, eliminación de los que no se requieran, así como en el aprovechamiento de las tecnologías emergentes y exponenciales.

10. Inclusión de programas de uso de tecnología para participación ciudadana y Gobierno abierto en los procesos misionales de las entidades públicas.

11. Inclusión y actualización permanente de políticas de seguridad y confianza digital.

12. Implementación de estrategias público-privadas que propendan por el uso de medios de pago electrónicos, siguiendo los lineamientos que se establezcan en el Programa de Digitalización de la Economía que adopte el Gobierno nacional.

13. Promoción del uso de medios de pago electrónico en la economía, conforme a la estrategia que defina el Gobierno nacional para generar una red masiva de aceptación de medios de pago electrónicos por parte de las entidades públicas y privadas.

Parágrafo. Los trámites y servicios que se deriven de los anteriores principios podrán ser ofrecidos tanto por personas jurídicas privadas como públicas, incluyendo a la entidad que haga las veces de articulador de servicios ciudadanos digitales, o la que defina el Ministerio TIC para tal fin.

Artículo 148. Gobierno Digital como Política de Gestión y Desempeño Institucional.

Modifíquese el artículo 230 de la Ley 1450 de 2011, el cual quedará así:

Artículo 230. Gobierno Digital como Política de Gestión y Desempeño Institucional. Todas las entidades de la administración pública deberán adelantar las acciones que señale el Gobierno nacional a través del Ministerio de Tecnologías de la Información y las Comunicaciones para la implementación de la política de Gobierno Digital.

Esta política liderada por el Ministerio de Tecnologías de la Información y las Comunicaciones contemplará como acciones prioritarias el cumplimiento de los lineamientos y estándares para la Integración de trámites al Portal Único del Estado Colombiano, la publicación y el aprovechamiento de datos públicos, la adopción del modelo de territorios y ciudades inteligentes, la optimización de compras públicas de tecnologías de la información, la oferta y uso de software público, el aprovechamiento de tecnologías emergentes en el sector público, incremento de la confianza y la seguridad digital y el fomento a la participación y la democracia por medios digitales.

El Gobierno implementará mecanismos que permitan un monitoreo permanente sobre el uso, calidad, nivel de satisfacción e impacto de estas acciones

Artículo 149. Infracciones Postales.

Modifíquese el artículo 37 de la Ley 1369 de 2009, el cual quedará así:

Artículo 37. Infracciones postales. Constituyen las infracciones a este ordenamiento las siguientes:

1. Prestar el Servicio de correo sin estar legalmente habilitado para ello.

2. La suspensión total o parcial de la prestación del Servicio Postal Universal por parte del operador postal oficial.

3. La utilización de oferta o anuncio de servicios que corresponden de manera exclusiva al Operador Postal Oficial o Concesionario de Correo.

4. El incumplimiento en la implementación, actualización o aplicación de los sistemas de administración y mitigación de riesgos por parte de los operadores postales de pago.

5. No cumplir los operadores postales de pago en todo tiempo con los requisitos patrimoniales fijados por el Ministerio de Tecnologías de la Información y las Comunicaciones que deben respaldar la operación o cualquier situación que afecte su capacidad de responder por sus obligaciones y pueda poner en riesgo los recursos recibidos del público.

6. Cualquier forma de violación a la libertad y confidencialidad de los envíos postales.

7. La prestación de servicios postales sin la debida inscripción en el registro de Operadores Postales del Ministerio de Tecnologías de la Información y las Comunicaciones.

8. No pagar la contraprestación periódica.

9. No pagar oportunamente la contraprestación periódica.

10. Pagar la contraprestación periódica fijando como base para su cálculo ingresos inferiores a los realmente percibidos por concepto de prestación de servicios postales.

11. El incumplimiento de uno o más indicadores técnicos y de calidad de los servicios postales.

12. La negativa, obstrucción o resistencia a ser inspeccionado dentro de la visita administrativa para esclarecer hechos por la prestación del servicio.

13. La actuación destinada a ocasionar fraude en el franqueo.

14. No cumplir el Operador de Servicios Postales con la obligación de divulgar, en sitio visible en todos los puntos de atención al público, las condiciones de prestación de cada servicio postal.

15. No cumplir el Operador de Servicios Postales con la obligación de divulgar, en la página web de la empresa y/o en medio de comunicación escrito, las condiciones de prestación de cada servicio postal.

16. La demora por parte de los Operadores de Servicios Postales, en facilitar la información requerida por el Ministerio de Tecnologías de la Información y las Comunicaciones, con el objeto de cumplir con las funciones asignadas.

17. La consolidación de objetos postales por parte del operador con el fin de evadir la contraprestación fijada en esta ley.

18. Cualquiera otra forma de incumplimiento o violación de las disposiciones legales, reglamentarias o contractuales o regulatorias en materia de servicios postales.

Artículo 150. Sanciones Postales.

Modifíquese el artículo 38 de la Ley 1369 de 2009, el cual quedará así:

Artículo 38. Sanciones Postales. Previo el trámite del procedimiento administrativo señalado en el Código de Procedimiento Administrativo y de lo Contencioso Administrativo, y con la plenitud de las garantías constitucionales, el Ministro de Tecnologías de la Información y las Comunicaciones o su delegado podrá imponer las siguientes sanciones:

1. Amonestación escrita. La cual podrá ser publicada por un término de un (1) año en el registro de operadores postales.

2. Multa de hasta cuatrocientos (400) salarios mínimos legales mensuales vigentes.

3. Suspensión de operaciones hasta por dos (2) meses.

4. Cancelación del título habilitante para la prestación de servicios postales y si eliminación del Registro de Operadores Postales.

Parágrafo. Se podrá declarar la caducidad del Contrato de Concesión a Operador Postal Oficial o Concesionario de Correo, de acuerdo con los requisitos legales aplicables, cuando se constante la ocurrencia de cualquiera de las causales previstas en los numerales 1, 2, 3, 4, 7, 8, 9, 10, 12, 13, del artículo 37 de la presente ley

Artículo 151. Graduación de las Sanciones Postales.

Modifíquese el artículo 39 de la Ley 1369 de 2009, el cual quedará así:

Artículo 39. Graduación de las Sanciones Postales. Para definir las sanciones se aplicarán los criterios consagrados en el Código de Procedimiento Administrativo y de lo Contencioso Administrativo.

En el procedimiento administrativo sancionador que adelante el Ministerio de Tecnologías de la Información y las Comunicaciones, podrán tenerse como factores atenuantes, los siguientes criterios:

1. Cuando, dentro de los cinco (5) días siguientes a la notificación del acto mediante el cual se formulan cargos, el investigado acredite que se ha producido el cese de los actos u omisiones que dieron lugar al inicio de la actuación administrativa, la sanción administrativa podrá reducirse hasta en las tres cuartas partes de la que resultare pertinente imponer.

2. Cuando, dentro de los quince (15) días siguientes a la notificación del acto mediante el cual se formulan cargos, el investigado acredite que se ha producido el cese de los actos u omisiones que dieron lugar al inicio de la actuación administrativa, la sanción administrativa podrá reducirse hasta en la mitad de la que resultare pertinente imponer.

3. Cuando, hasta antes de la culminación del periodo probatorio, el investigado acredite que se ha producido el cese de los actos u omisiones que dieron lugar al inicio de la actuación administrativa, la sanción administrativa podrá reducirse hasta en la tercera parte de la que resultare pertinente imponer

Artículo 152. Recursos del Fontic para Inspección, Vigilancia y Control.

El Fondo de Tecnologías de la Información y las Comunicaciones, o quien haga sus veces, deberá transferir a la Superintendencia de Industria y Comercio los recursos para el ejercicio de la función de inspección, vigilancia y control en materia de comunicaciones adelantada por esta Entidad.

Artículo 153. Redes y Servicios de Telecomunicaciones.

El manejo, tratamiento o procesamiento de información no configuran, por sí mismos, la provisión de redes y servicios de telecomunicaciones que se rige por la Ley 1341 de 2009, aunque se soporten en redes y servicios de telecomunicaciones.

Cuando en un mismo negocio jurídico se involucre la provisión de redes y servicios de telecomunicaciones, y el manejo, tratamiento o procesamiento de información, deberá realizarse la separación contable de los ingresos derivados del manejo, tratamiento o procesamiento de información y de los ingresos derivados de la provisión de redes y servicios de telecomunicaciones que se rigen por la Ley 1341 de 2009, respectivamente

Artículo 154. Producción y contenido local en servicios de video bajo demanda.

Los servicios bajo demanda (Suscription Video on Demand -SVOD-) que se prestan a través de Internet (Over the Top- OTT-), deberán disponer, para los usuarios en Colombia, de una sección fácilmente accesible para el usuario en la que se incluyan obras audiovisuales de origen nacional.

El Gobierno nacional expedirá, dentro de los doce meses siguientes a la expedición de la presente ley, los aspectos necesarios para dar cumplimiento al presente artículo teniendo en cuenta las disposiciones de los tratados internacionales firmados por Colombia.

Artículo 155. Sistema Estadístico Nacional.

Modifíquese el artículo 160 de la Ley 1753 de 2015, el cual quedará así:

Artículo 160. Sistema Estadístico Nacional. Créase el Sistema Estadístico Nacional, en adelante SEN, con el objetivo de suministrar a la sociedad y al Estado, estadísticas oficiales nacionales y territoriales de calidad. El SEN utilizará los lenguajes y procedimientos comunes, respetando los estándares estadísticos internacionales y los objetivos del código de buenas prácticas en materia estadística. Además, el SEN optimizará el uso de los registros administrativos producidos por todas las entidades que lo conforman y contribuirá con la transparencia, pertinencia, interoperabilidad, acceso, oportunidad y coherencia de las estadísticas del país, con un enfoque diferencial.

El Sistema Estadístico Nacional (SEN) estará integrado por las entidades que produzcan y difundan estadísticas o sean responsables de registros administrativos, así:

1. Pertenecientes a las Ramas del Poder Público, en todos los niveles de la estructura estatal, central o descentralizada por servicios o territorialmente; del orden nacional, departamental, municipal y distrital.

2. Los órganos, organismos o entidades estatales independientes o autónomos de control.

3. Las personas jurídicas, públicas o privadas, que presten servicios públicos.

4. Cualquier persona jurídica o dependencia de persona jurídica que desempeñe función pública o de autoridad pública.

5. Personas jurídicas que posean, produzcan o administren registros administrativos en el desarrollo de su objeto social, que sean insumos necesarios para la producción de estadísticas oficiales.

El Departamento Administrativo Nacional de Estadística (DANE) será el ente rector y por tanto el coordinador y regulador del SEN. El DANE establecerá las condiciones y características que deberán cumplir las estadísticas oficiales en Colombia, respetando los estándares internacionales que usen las entidades productoras de estadísticas. Dichas condiciones y características serán consignadas en el Plan Estadístico Nacional y otros actos administrativos proferidos por el DANE, los cuales serán de obligatorio cumplimiento para los miembros del SEN.

El Plan Estadístico Nacional se expedirá cada cinco (5) años, previa concertación y socialización a los integrantes del SEN; tendrá un enfoque diferencial y se actualizará cuando el DANE lo considere pertinente previo aval del Consejo Asesor Técnico del Sistema Estadístico Nacional del que habla el Parágrafo 3° de este artículo. El Gobierno nacional reglamentará las demás disposiciones relacionadas con el Plan Estadístico Nacional y las condiciones que garanticen el intercambio de información y la calidad de las estadísticas de que trata este artículo.

Parágrafo 1°. Para la producción y difusión de estadísticas oficiales y de conformidad con la Ley 1266 de 2008 y la Ley 1712 de 2014, los integrantes del SEN deberán poner a disposición del DANE, de manera inmediata y de forma gratuita, las bases de datos completas de los registros administrativos que sean solicitados por el departamento, para lo cual no será oponible la reserva legal, especialmente la contenida en el Estatuto Tributario. El DANE garantizará la reserva y confidencialidad de la información en concordancia con el artículo 5° de la Ley 79 de 1993. Los Integrantes del SEN que incumplan u obstaculicen los requerimientos de información realizados por el DANE, asociados a la entrega de bases de datos de los registros administrativos, estarán sujetos a las sanciones y multas señaladas en el artículo 6° de la Ley 79 de 1993.

Parágrafo 2°. Con el fin de garantizar y contribuir al fortalecimiento de la calidad y coherencia de la información de que trata este artículo, los integrantes del SEN atenderán las obligaciones derivadas de las evaluaciones y requisitos de calidad estadística establecidos por el DANE. Adicionalmente, los integrantes del SEN podrán intercambiar información estadística, hasta el nivel de microdato, de forma gratuita y oportuna, de acuerdo con la reglamentación que para el efecto expida el Gobierno nacional. Las entidades que hagan parte del Intercambio de información deben salvaguardar la confidencialidad y reserva de la misma.

Parágrafo 3°. Con el fin de asesorar y evaluar el desarrollo del SEN y la producción estadística nacional, créase el Consejo Asesor Técnico del Sistema Estadístico Nacional como órgano de carácter consultivo. El Gobierno nacional reglamentará los principios, la composición y funcionamiento de este consejo.

Parágrafo 4°. Con el fin de garantizar una plena identificación y caracterización de la oferta de información estadística en el país, los miembros del SEN estarán obligados a reportar la creación, actualización y cualquier otra novedad en la producción y difusión de información estadística o registros administrativos en el sistema informático que defina para este efecto el DANE y de acuerdo con la periodicidad establecida en el Plan Estadístico Nacional. Este sistema informático contendrá los metadatos de las operaciones estadísticas y de los registros administrativos para aprovechamiento estadístico.

Parágrafo 5°. El Gobierno nacional dispondrá de los recursos necesarios para que, bajo la coordinación del DANE, las operaciones estadísticas que hacen parte del Sistema Estadístico Nacional, aumenten su cobertura y difundan sus resultados con desagregación a nivel territorial de distritos y municipios que sean capitales de departamentos y los departamentos de categoría especial. En todo caso, deberá surtir una evaluación de viabilidad técnica a fin de preservar la reserva estadística y atributos de calidad de la operación.

Parágrafo 6°. El Departamento Administrativo Nacional de Estadística (DANE) brindará asesoría y asistencia técnica en la formulación de Planes Estadísticos Territoriales, así como en los lineamientos y estándares para la producción y difusión de información estadística en los distritos y municipios que sean capitales de departamentos y los departamentos de categoría especial.

Artículo 156. Potestad Sancionatoria del ICA e Infracciones.

El Estado es el titular de la potestad sancionatoria en materia sanitaria, fitosanitaria, de inocuidad y forestal comercial y la ejerce, sin perjuicio de las competencias legales de otras autoridades, a través del Instituto Colombiano Agropecuario (ICA), conforme lo dispuesto en la presente ley.

Será infracción toda acción u omisión que contravenga las disposiciones establecidas en el ordenamiento jurídico en materia sanitaria, fitosanitaria, de inocuidad y forestal comercial, en especial cuando impida u obstruya el desarrollo o la ejecución de cualquiera de las siguientes actividades:

1. Campañas de prevención, erradicación y manejo de plagas y enfermedades.

2. Desarrollo de cuarentena agropecuaria.

3. Actividades de inspección, vigilancia y control sanitario, fitosanitario y de inocuidad.

4. Diagnóstico, la vigilancia epidemiológica y sanitaria animal y vegetal.

5. Exportación e importación de animales, vegetales, sus productos y sus subproductos y agroinsumos.

6. Control técnico de los insumos agropecuarios, material genético animal, vegetal y semillas para siembra.

7. Operación de establecimientos comerciales agropecuarios.

8. Inscripción o expedición de certificados de movilización de plantaciones forestales comerciales.

Parágrafo 1°. La aplicación del régimen administrativo sancionatorio establecido en la presente ley, por parte del Instituto Colombiano Agropecuario (ICA), se regirá por lo previsto en el Título III de la Ley1437 de 2011 y demás normas que lo modifiquen, adicionen o sustituyan. Lo anterior, para asegurar el debido proceso en el trámite.

Parágrafo 2°. El Ministerio de Agricultura y Desarrollo Rural en conjunto con Agrosavia y el ICA, formularán un programa de fomento y apoyo a los sistemas locales de semillas para el rescate, conservación, uso, promoción y protección de semillas criollas y nativas.

Parágrafo 3°. El Ministerio de Agricultura y Desarrollo Rural y el ICA rendirán informe escrito, durante los meses de septiembre y abril de cada año, a las comisiones quintas de Senado y Cámara sobre el avance del ICA en el fortalecimiento de sus competencias, en materia de sanidad, y trazabilidad en materia agropecuaria.

Artículo 157. Sanciones Administrativas.

Las infracciones a que se refiere la presente ley serán objeto de sanción administrativa por parte del Instituto Colombiano Agropecuario (ICA), sin perjuicio de las acciones penales y civiles a que haya lugar. Las sanciones serán las siguientes:

1. Amonestación escrita o llamado de atención, con un plazo para que el infractor cese su incumplimiento.

2. Multa, representada en salarios mínimos legales mensuales vigentes, que oscilan de acuerdo a la gravedad de la conducta, desde un (1) salario hasta diez mil (10.000) salarios mínimos legales mensuales vigentes, para la fecha de ocurrencia de los hechos.

El ICA podrá imponer multas sucesivas cuando corrobore que el sancionado ha persistido en su incumplimiento.

3. La prohibición temporal o definitiva de la producción de especies animales y/o vegetales.

4. La suspensión o cancelación de registros, permisos, certificaciones o autorizaciones concedidas por el ICA, hasta por el término de dos (2) años.

5. La suspensión o cancelación, hasta por el término de dos (2) años, de los servicios que el ICA preste al infractor.

Parágrafo 1°. Dependiendo de la gravedad de la infracción, el ICA podrá imponer una o varias de las sanciones contempladas en la presente ley, atendiendo a los criterios de graduación contenidos en el artículo 50 de la Ley 1437 de 2011. En todo caso, la imposición de las sanciones aquí señaladas no exime al infractor del deber de ejecutar las acciones a que esté obligado.

Parágrafo 2°. Los actos administrativos expedidos por el ICA que impongan sanciones pecuniarias, una vez ejecutoriados, prestan mérito ejecutivo y su cobro podrá hacerse a través de la jurisdicción coactiva.

Parágrafo 3°. El no pago de la sanción pecuniaria dentro del término de cinco (5) días siguientes a la ejecutoria del acto a través del cual se impone la sanción, o el incumplimiento al acuerdo de pago suscrito con el Instituto Colombiano Agropecuario (ICA), dará lugar a la liquidación y pago de intereses moratorios a la tasa prevista para el impuesto de renta y complementarios.

Parágrafo 4°. Las sumas recaudadas por concepto de multas ingresarán al Instituto Colombiano Agropecuario (ICA), y serán considerados como ingresos propios de la Entidad para financiar los planes y programas de control y vigilancia.

Artículo 158. Tasa, Sujeto Activo y Pasivo y Hechos Generadores.

Créase la tasa para la recuperación de los costos de los servicios prestados por el Instituto Colombiano Agropecuario (ICA), en ejercicio de su función misional, para garantizar y proteger la sanidad animal, vegetal e inocuidad de la producción primaria.

El sujeto activo de la tasa creada por la presente ley será el Instituto Colombiano Agropecuario (ICA). Tendrán la condición de sujeto pasivo de la tasa, las personas naturales o jurídicas que soliciten cualquiera de los servicios prestados por el Instituto Colombiano Agropecuario (ICA).

Son hechos generadores de la tasa que se crea en la presente ley, los siguientes:

1. Expedición de registros, autorizaciones, habilitaciones, certificados, licencias, permisos, remisiones, publicaciones, inscripciones y conceptos en materia sanitaria, fitosanitaria, de inocuidad y forestal comercial.

2. Realización de pruebas de laboratorio analíticas y diagnósticas de enfermedades y plagas, de verificación de requisitos técnicos de insumos agropecuarios y semillas y de detección de residuos y contaminantes en productos agropecuarios.

3. Realización de inspección física y cuarentenas agropecuarias para importación, exportación y reexportación.

Parágrafo. La base para la liquidación de la tasa será el costo de los servicios correspondientes a cada uno de los hechos generadores establecidos en el artículo anterior, conforme la metodología de cálculo que establezca el Gobierno nacional.

Artículo 159. Método y Sistema para la Determinación de las Tarifas.

El Instituto Colombiano Agropecuario (ICA) fijará y actualizará anualmente las tarifas de los servicios que preste, por cada uno de los hechos generadores de la tasa. Las tarifas se fijarán en salarios mínimos legales diarios vigentes y se cobrarán como recuperación de los costos de los servicios prestados por la entidad, para lo cual se utilizarán el siguiente método y sistema, teniendo en cuenta los costos administrativos, financieros, directos e indirectos, de operación y los costos de los programas de tecnificación.

A) Método 

a) Elaboración y normalización de flujogramas para los diferentes procesos con el propósito de determinar sus rutinas;

b) Cuantificación de los materiales, suministros y los demás insumos tecnológicos y de recurso humano utilizados anualmente, en cada uno de los procesos y procedimientos definidos en el literal anterior. Estos insumos deben incluir unos porcentajes de los gastos de administración general del ICA cuantificados siguiendo las normas y principios aceptados de contabilidad de costos;

c) Valoración a precios de mercado de los insumos descritos en el literal anterior para cada uno de los procesos y procedimientos, incluidos los relativos a transporte y almacenamiento. Cuando uno de los procedimientos deba contratarse con terceros, se tomará el valor del servicio contratado;

d) Valoración del recurso humano utilizado directamente en la prestación del servicio, tomando como base los salarios y prestaciones de la planta de personal del ICA, así como el valor de los contratos que se celebren para el efecto;

e) Cuantificación de los costos en función de los equipos, técnicas y tecnologías disponibles para la operación de los servicios;

f) Estimación de las frecuencias de utilización de los servicios. La frecuencia se entiende como el número de operaciones o ejecuciones de cada uno de los servicios prestados por el ICA.

B) Sistema de costos 

El sistema para definir las tarifas es un sistema de costos estandarizables, en el que la valoración y ponderación de los factores que intervienen en su definición se realizará por medio de los procedimientos de costeo técnicamente aceptados.

La tarifa para cada uno de los servicios prestados por el Instituto Colombiano Agropecuario (ICA), será el resultado de sumar el valor de los insumos y de los recursos humanos utilizados, de conformidad con los literales c), d) y e) del artículo anterior de esta ley, divididos cada uno por la frecuencia de utilización de que trata el literal f) del mismo artículo.

Parágrafo. El Gobierno nacional podrá revisar periódicamente los criterios para la determinación de las tarifas considerando mejoras en eficiencia que puedan resultar en menores costos en la prestación de los servicios a cargo del ICA, así como utilizar ponderaciones regionales para la fijación de las tarifas.

Artículo 160. Pago, Recaudo y Destinación Específica de los Recursos.

El sujeto pasivo o usuario deberá acreditar el pago de la tarifa correspondiente al momento de solicitar el servicio al Instituto Colombiano Agropecuario (ICA).

El recaudo de las tarifas de que trata la presente ley estará a cargo del Instituto Colombiano Agropecuario (ICA), y tendrá una destinación específica encaminada a la prevención, control y la erradicación de enfermedades y plagas en animales y vegetales y la inocuidad en la producción primaria.

Parágrafo. Los recursos serán incorporados en el presupuesto del ICA de conformidad con lo previsto en la Ley Orgánica de Presupuesto y se destinarán a financiar los programas de prevención, control y erradicación.

Artículo 161.Inexequible.

SECCIÓN II. PACTO POR EL EMPRENDIMIENTO, LA FORMALIZACIÓN Y LA PRODUCTIVIDAD: UNA ECONOMÍA DINÁMICA, INCLUYENTE Y SOSTENIBLE QUE POTENCIE TODOS NUESTROS TALENTOS

Artículo 162. Emisiones para pequeñas y medianas empresas.

El Gobierno nacional creará un modelo de emisiones de acciones e instrumentos de crédito, hasta 584.000 Unidades de Valor Tributario (UVT) por cada emisor, para pequeñas y medianas empresas, en el cual se establecerán condiciones que faciliten su proceso de emisión. Así mismo, serán negociados a través de un sistema autorizado por la Superintendencia Financiera de Colombia, al cual concurrirán inversionistas y emisores, para efectuar operaciones primarias y secundarias de compra y venta. El Gobierno nacional reglamentará la materia.

Artículo 163. Colombia Productiva.

Modifíquese el artículo 50 de la Ley 1450 de 2011, modificado por el artículo 11 de la Ley 1753 de 2015, el cual quedará así:

Artículo 50. Colombia Productiva.

El Programa de Transformación Productiva, que en adelante se llamará Colombia Productiva, será el encargado de promover la productividad, la competitividad y los encadenamientos productivos para fortalecer cadenas de valor sostenibles; implementar estrategias público-privadas que permitan el aprovechamiento de ventajas comparativas y competitivas para afrontar los retos del mercado global; y, fortalecer las capacidades empresariales, la sofisticación, la calidad y el valor agregado de los productos y servicios, de acuerdo a la política que defina el Ministerio de Comercio, Industria y Turismo.

Los recursos que integrarán el patrimonio autónomo son los siguientes:

1. Recursos provenientes del Presupuesto General de la Nación.

2. Recursos aportados por las entidades nacionales, internacionales, territoriales o por particulares a través de convenios o transferencias.

3. Donaciones.

4. Recursos de cooperación nacional o internacional.

5. Rendimientos financieros generados por los recursos entregados, los cuales se reinvertirán de pleno derecho en el Patrimonio Autónomo.

6. Los dividendos que sean decretados en favor de la Nación por la Asamblea General de Accionistas del Banco de Comercio Exterior (Bancoldex).

7. Los demás recursos que obtenga o se le asignen a cualquier título.

Este programa será un patrimonio autónomo con régimen privado y será administrado directamente por el Banco de Comercio Exterior (Bancoldex), sus filiales o por la entidad que defina el Ministerio de Comercio, Industria y Turismo.

Todas las referencias que se hayan hecho o que se hagan al Programa de Transformación Productiva deben entenderse referidas a Colombia Productiva.

Artículo 164. Fortalecimiento empresarial de las organizaciones de la economía solidaria.

Le corresponderá al Gobierno nacional diseñar, formular e implementar la política pública integral estatal para la promoción, planeación, protección, fortalecimiento y desarrollo empresarial de las organizaciones de la economía solidaria, determinadas en la Ley 454 de 1998; con especial énfasis en la economía solidaria rural y campesina, por el fomento de la equidad de género, en favor de las madres cabeza de hogar y por el emprendimiento y asociatividad de la juventud y los trabajadores. La política pública establecerá los mecanismos para el fomento y desarrollo del servicio de ahorro y crédito solidario que mediante los Fondos de Empleados se construyen a nivel nacional.

Parágrafo 1°. Para el efecto se creará la Comisión Intersectorial para la Economía Solidaria en la cual confluirán e interactuarán las diversas entidades del orden nacional de la rama ejecutiva con el objetivo de coordinar y armonizar las políticas, planes programas y acciones necesarias para la ejecución transversal e integral de la política pública de la economía solidaria y su articulación con otras políticas de desarrollo económico y empresarial.

Parágrafo 2°. En la política de la que trata este artículo, el Gobierno nacional deberá diseñar los incentivos y estrategias para las empresas que fomenten la creación, desarrollo y subvención de Fondos de Empleados que beneficien directa e indirectamente a sus trabajadores con el ánimo de incrementar actores dentro de la economía solidaria en el territorio nacional.

Artículo 165. Líneas de crédito para inversión en actividades de ciencia, tecnología e innovación.

Podrán destinarse recursos públicos que pertenezcan a fondos de Ciencia, Tecnología e Innovación para apalancar inversión privada en actividades de Ciencia, Tecnología e Innovación, haciendo uso de líneas de crédito a través de entidades financieras de segundo piso.

Parágrafo. Como apoyo a estas entidades se crearán centros de dinamización financiera que direccionen e incentiven a las empresas para acceder y obtener los recursos públicos existentes para fines de ciencia, tecnología e innovación.

Artículo 166. Constitución de empresas de desarrollos tecnológicos innovadores.

Quienes se propongan implementar desarrollos tecnológicos innovadores para realizar actividades propias de las entidades vigiladas por la Superintendencia Financiera, podrán constituir una de estas entidades y obtener un certificado para operar temporalmente, de acuerdo con las condiciones, requisitos y requerimientos prudenciales, incluyendo la determinación o aplicación de capitales mínimos, de acuerdo con la reglamentación que para el efecto expida el Gobierno nacional. Dicho certificado de operación temporal no excederá de dos (2) años y podrá ser revocado en cualquier momento por la Superintendencia Financiera.

La Superintendencia Financiera autorizará la constitución de estas entidades y otorgará el respectivo certificado de funcionamiento, conforme al procedimiento que se establezca para el efecto. En desarrollo de esta disposición, el Gobierno nacional podrá determinar los montos mínimos de capital que deberán acreditarse para solicitar la constitución de las entidades sometidas al control y vigilancia de la Superintendencia Financiera de Colombia, el cual podrá estar diferenciado en función de las operaciones autorizadas por la Superintendencia Financiera de Colombia, en los términos del numeral 2 del artículo 53 del Estatuto Orgánico del Sistema Financiero.

Parágrafo 1°. Con sujeción a las condiciones, requisitos y requerimientos prudenciales que establezca la reglamentación a la que se refiere el presente artículo, las entidades vigiladas por la Superintendencia Financiera de Colombia podrán implementar desarrollos tecnológicos innovadores para probar temporalmente nuevos productos o servicios, bajo la supervisión de dicha Superintendencia, por el término indicado en este artículo.

Parágrafo 2°. El Gobierno nacional a través de la Comisión Intersectorial para la Inclusión Financiera articulará las medidas y políticas tendientes a desarrollar mecanismos de financiación para empresas y emprendedores, con el propósito de evitar duplicidad y que se diseñen instrumentos adecuados para las diferentes etapas de desarrollo empresarial.

Artículo 167. Bienes intangibles o derechos de propiedad intelectual de las entidades públicas.

La entidad pública que sea titular de bienes intangibles y derechos de propiedad intelectual podrá negociar su explotación comercial.

Los beneficios o regalías que se generen de la explotación comercial del bien intangible o derecho de propiedad intelectual de titularidad de la entidad pública, deberán ser destinados para el apoyo e inversión a los programas, proyectos, actividades e iniciativas de ciencia, tecnología e innovación de la entidad pública. Para lo anterior, la entidad pública podrá suscribir convenios de ejecución con fondos o fiducias que garanticen dicha destinación.

Para aquellas entidades públicas que no desarrollen o ejecuten programas, proyectos, actividades e iniciativas de ciencia, tecnología e innovación, los beneficios o regalías que genere la explotación comercial de sus bienes intangibles o propiedad intelectual, deberá ser destinada a la promoción de industrias creativas de conformidad con el artículo 2° de la Ley 1834 de 2017.

Artículo 168. Crédito fiscal para inversiones en proyectos de investigación, desarrollo tecnológico e innovación o vinculación de capital humano de alto nivel.

Adiciónese al Libro Primero, Título I, Capítulo X del Estatuto Tributario el artículo 256-1, así:

Artículo 256-1. Crédito fiscal para inversiones en proyectos de investigación, desarrollo tecnológico e innovación o vinculación de capital humano de alto nivel. Las inversiones que realicen las Micro, Pequeñas y Medianas empresas en proyectos calificados como de Investigación, Desarrollo Tecnológico e Innovación, de acuerdo con los criterios y condiciones definidas por el Consejo Nacional de Beneficios Tributarios en Ciencia, Tecnología e Innovación (CNBT), podrán acceder a un crédito fiscal por un valor del 50% de la inversión realizada y certificada por el CNBT aplicable para la compensación de impuestos nacionales. El crédito fiscal aquí establecido no generará saldo a favor susceptible de devolución, excepto únicamente respecto de lo previsto en los Parágrafos 3 y 4 del presente artículo.

Igual tratamiento será aplicable a la remuneración correspondiente a la vinculación de personal con título de doctorado en las Mipymes, que se realice con posterioridad a la expedición de la presente ley, siempre y cuando se cumplan con los criterios y condiciones definidos por el CNBT para tal fin y su vinculación esté asociada al desarrollo de actividades de I+D+i. El crédito fiscal corresponde al 50% de la remuneración efectivamente pagada durante la vigencia fiscal y deberá solicitarse cada año una vez demostrada la vinculación del personal con título de doctorado. Para el caso de títulos de doctorado obtenidos en el exterior, se deberán cumplir los requisitos de convalidación previstos en la normatividad vigente, de manera previa a su vinculación.

Parágrafo 1°. Los proyectos presentados y calificados bajo la modalidad de crédito fiscal no podrán acceder a la deducción y descuento definido en el artículo 158-1 y 256 del Estatuto Tributario, respectivamente. Igual tratamiento aplica para la remuneración derivada de la vinculación del nuevo personal con título de doctorado.

Parágrafo 2°. El CNBT definirá el cupo máximo de inversiones que podrá certificar bajo esta modalidad, el cual hará parte del cupo establecido en el Parágrafo 1 del artículo 158-1 del Estatuto Tributario.

Parágrafo 3°. Las micro, pequeñas y medianas empresas que cuenten con créditos fiscales vigentes superiores a mil UVT (1000 UVT) por inversiones en proyectos calificados como de Investigación, Desarrollo Tecnológico e Innovación, de acuerdo con los criterios y condiciones definidas por el Consejo Nacional de Beneficios Tributarios en Ciencia, Tecnología e Innovación (CNBT), podrán solicitar Títulos de Devolución de Impuestos (TIDIS) por el valor del crédito fiscal.

Parágrafo 4°. La remuneración pagada por la vinculación de personal con título de doctorado en las Mipymes podrá ser solicitada como TIDIS (Títulos de Devolución de Impuestos) siempre y cuando se cumplan con los criterios y condiciones definidos por el Consejo Nacional de Beneficios Tributarios y cuenten con un crédito fiscal vigente superior a los 1000 UVT.

Parágrafo 5°. Los créditos fiscales tendrán una vigencia de dos años una vez expedido el respectivo certificado.

Artículo 169. Derechos de propiedad intelectual sobre resultados de programas y proyectos de ciencia, tecnología e innovación y de tecnologías de la información y las comunicaciones financiados con recursos públicos.

En los casos de proyectos de investigación y desarrollo de ciencia, tecnología e innovación y de tecnologías de la información y las comunicaciones, adelantados con recursos públicos, el Estado como titular de los derechos de propiedad intelectual derivados de estos proyectos podrá ceder dichos derechos a través de la entidad financiadora, y autorizará su transferencia, comercialización y explotación a quien adelante y ejecute el proyecto, sin que ello le constituya daño patrimonial. Las condiciones de esta cesión serán fijadas en el respectivo contrato o convenio.

En todo caso, el Estado, a través de la entidad financiadora, se reserva el derecho de obtener una licencia no exclusiva y gratuita de estos derechos de propiedad intelectual por motivos de interés público. Así mismo, en caso de presentarse motivos de seguridad y defensa nacional, el titular de los derechos de propiedad intelectual deberá ceder a título gratuito y sin limitación alguna al Estado, los derechos de propiedad intelectual que le correspondan. Los derechos de propiedad intelectual a ceder, así como sus condiciones de uso, serán fijados en el respectivo contrato o convenio.

Parágrafo. Cuando en el respectivo contrato o convenio se defina que el titular de derechos de propiedad intelectual es quien adelante y ejecute el proyecto, y este realice la explotación de dichos derechos, obteniendo ganancias económicas, deberá garantizar al Estado, a través de la entidad financiadora, un porcentaje de las ganancias netas obtenidas en la explotación de la propiedad intelectual de la cual es titular, porcentaje que deberá ser acordado por mutuo acuerdo con el Estado, a través de la entidad financiadora. El Estado a través de la entidad financiadora, deberá invertir los dineros obtenidos, en programas y proyectos de Ciencia, Tecnología e Innovación y de tecnologías de la información y las comunicaciones.

Artículo 170. Deducción por donaciones e inversiones en investigación, desarrollo tecnológico e innovación.

Modifíquese el artículo 158-1 del Estatuto Tributario, modificado por el artículo 91 de la Ley 1819 de 2016, el cual quedará así:

Artículo 158-1. Deducción por donaciones e inversiones en investigación, desarrollo tecnológico e innovación. Las inversiones que se realicen en investigación, desarrollo tecnológico e innovación, de acuerdo con los criterios y las condiciones señaladas por el Consejo Nacional de Beneficios Tributarios en Ciencia, Tecnología e Innovación (CNBT), serán deducidles en el período gravable en que se realicen. Lo anterior, no excluye la aplicación del descuento de que trata el artículo 256 del Estatuto Tributario cuando se cumplan las condiciones y requisitos allí previstos.

El mismo tratamiento previsto en este artículo será aplicable en los siguientes casos: i) a las donaciones que se realicen por intermedio de las Instituciones de Educación Superior o del Instituto Colombiano de Crédito Educativo y Estudios Técnicos en el Exterior (Icetex) dirigidas a programas de becas o créditos condonables que sean aprobados por el Ministerio de Educación Nacional, y que beneficien a estudiantes de estratos 1, 2 y 3 a través de becas de estudio total o parcial, o créditos condonables que podrán incluir manutención, hospedaje, transporte, matrícula, útiles y libros, de acuerdo a la reglamentación expedida por el Gobierno nacional respecto de las condiciones de asignación y funcionamiento de los programas de becas y créditos condonables a los que hace referencia el presente artículo, i) a las donaciones recibidas por el Fondo Nacional de Financiamiento para la Ciencia, la Tecnología y la Innovación, Fondo Francisco José de Caldas, y que sean destinadas al financiamiento de Programas y/o Proyectos de Ciencia, Tecnología e Innovación, de acuerdo con los criterios y las condiciones señaladas por el Consejo Nacional de Beneficios Tributarios en Ciencia, Tecnología e Innovación (CNBT), y iii) a la remuneración correspondiente a la vinculación de personal con título de Doctorado en las empresas contribuyentes de renta, que se realice con posterioridad a la expedición de la presente ley, siempre y cuando se cumplan con los criterios y condiciones definidos por el CNBT para tal fin y su vinculación esté asociada al desarrollo de actividades de I+D+i. Para el caso de títulos de Doctorado obtenidos en el exterior, se deberán cumplir los requisitos de convalidación previstos en la normatividad vigente, de manera previa a su vinculación.

Parágrafo 1°. El Consejo Nacional de Beneficios Tributarios en Ciencia, Tecnología e Innovación (CNBT) definirá anualmente un monto máximo total de la deducción prevista en el presente artículo y del descuento establecido en el artículo 256 del Estatuto Tributario y del Crédito Fiscal por Inversiones en CTel, así como el monto máximo anual que individualmente pueden solicitar las empresas como deducción y descuento por inversiones o donaciones de que trata el Parágrafo 2° del artículo 256 del Estatuto Tributario, efectivamente realizadas en el año. El Gobierno nacional definirá mediante reglamento que un porcentaje específico del monto máximo total de la deducción de que trata el presente artículo y del descuento de que trata el artículo 256 del Estatuto Tributario, se invierta en proyectos de investigación, desarrollo tecnológico e innovación en Pequeñas y medianas empresas (Pymes).

Cuando se presenten proyectos en CT+I que establezcan inversiones superiores al monto señalado anteriormente, el contribuyente podrá solicitar al CNBT la ampliación de dicho tope, justificando los beneficios y la conveniencia del mismo. En los casos de proyectos plurianuales, el monto máximo establecido en este inciso se mantendrá vigente durante los años de ejecución del proyecto calificado, sin perjuicio de tomar en un año un valor superior, cuando el CNBT establezca un monto superior al mismo para dicho año.

Parágrafo 2°. Los costos y gastos que dan lugar a la deducción de que trata este artículo y al descuento del artículo 256 del Estatuto Tributario, no podrán ser capitalizados ni tomados como costo o deducción nuevamente por el mismo contribuyente.

Parágrafo 3°. Los contribuyentes del impuesto sobre la renta y complementarios que hayan accedido al beneficio contemplado en el artículo 158-1 del Estatuto Tributario antes de 31 de diciembre de 2016 en un proyecto plurianual, conservarán las condiciones previstas al momento de obtener la aprobación por parte del CNBT respecto del proyecto correspondiente. Las inversiones en los proyectos de que trata este Parágrafo, no se someten a lo previsto en el artículo 256 del Estatuto Tributario.

Parágrafo 4°. La deducción prevista por la remuneración de personal con título de doctorado se causará cuando dicho personal no esté vinculado a los proyectos a los que hace mención el presente artículo en su primer inciso.

Artículo 171. Descuento para inversiones y donaciones realizadas en investigación, desarrollo tecnológico o innovación.

Modifíquese el artículo 256 del Estatuto Tributario, modificado por el artículo 104 de la Ley 1819 de 2016, el cual quedará así;

Artículo 256. Descuento para inversiones realizadas en investigación, desarrollo tecnológico o innovación. Las personas que realicen inversiones en proyectos calificados por el Consejo Nacional de Beneficios Tributarios en Ciencia y Tecnología en Innovación como de investigación, desarrollo tecnológico o innovación, de acuerdo con los criterios y condiciones definidas por dicho Consejo, tendrán derecho a descontar de su impuesto sobre la renta a cargo el 25% del valor invertido en dichos proyectos en el período gravable en que se realizó la inversión. Las inversiones de que trata este artículo, podrán ser realizadas a través de los actores reconocidos por Colciencias de acuerdo con la normatividad vigente. El Consejo Nacional de Beneficios Tributarios, definirá los procedimientos de control, seguimiento y evaluación de los proyectos calificados, y las condiciones para garantizar la divulgación de los resultados de los proyectos calificados, sin perjuicio de la aplicación de las normas sobre propiedad intelectual, y que además servirán de mecanismo de control de la inversión de los recursos.

Parágrafo 1°. Para que proceda el descuento de que trata el presente artículo, al calificar el proyecto se deberán tener en cuenta criterios de impacto ambiental.

Parágrafo 2°. El mismo tratamiento previsto en este artículo será aplicable en los siguientes casos:

i) a las donaciones hechas a programas creados por las instituciones de educación superior, o del Instituto Colombiano de Crédito Educativo y Estudios Técnicos en el Exterior (Icetex) dirigidas a programas de becas o créditos condonables que sean aprobados por el Ministerio de Educación Nacional y que beneficien a estudiantes de estratos 1, 2 y 3 a través de becas de estudio total o parcial o créditos condonables que podrán incluir manutención, hospedaje, transporte, matrícula, útiles y libros de acuerdo a la reglamentación expedida por el Gobierno nacional respecto de las condiciones de asignación y funcionamiento de los programas de becas y créditos condonables a los que se refiere el presente artículo,

ii) a las donaciones recibidas por el Fondo Nacional de Financiamiento para la Ciencia, la Tecnología y la Innovación, Fondo Francisco José de Caldas, y que sean destinadas al financiamiento de Programas y/o Proyectos de Ciencia, Tecnología e Innovación, de acuerdo con los criterios y las condiciones señaladas por el Consejo Nacional de Beneficios Tributarios en Ciencia, Tecnología e Innovación (CNBT), y

iii) a la remuneración correspondiente a la vinculación de personal con título de doctorado en las empresas contribuyentes de renta, que se realice con posterioridad a la expedición de la presente ley, siempre y cuando se cumplan con los criterios y condiciones definidos por el CNBT para tal fin y su vinculación esté asociada al desarrollo de actividades de I+D+i. Para el caso de títulos de Doctorado obtenidos en el exterior, se deberán cumplir los requisitos de convalidación previstos en la normatividad vigente, de manera previa a su vinculación.

Parágrafo 3°. El descuento previsto por la remuneración de personal con título de doctorado se causará cuando dicho personal no esté vinculado a los proyectos a los que hace mención el presente artículo en su primer inciso.

Parágrafo 4°. El descuento aquí previsto se somete a lo establecido en los Parágrafos 1° y 2° del artículo 158-1 del Estatuto Tributario.

Artículo 172. Sistema nacional de competitividad e innovación (SNCI).

Créese el Sistema Nacional de Competitividad e Innovación (SNCI) con el objetivo de fortalecer la competitividad , en el marco de este sistema y a través de la Comisión Nacional de Competitividad e Innovación, se articularán los siguientes sistemas: el Sistema Nacional de Ciencia, Tecnología e Innovación (SNCTI); el Sistema Nacional de Innovación Agropecuaria (SNIA); la Comisión Intersectorial de Propiedad Intelectual (CIPI); el Consejo Nacional de Economía Naranja (CNEN); el Sistema Nacional Ambiental (SINA) y los demás sistemas, órganos e instancias relacionadas con competitividad , productividad e innovación, y coordinar la elaboración, implementación y seguimiento de la agenda Nacional de Competitividad e Innovación.

Las distintas instancias regionales, departamentales y territoriales de los sistemas que coordinan en la Comisión Nacional de Competitividad e Innovación se articularán en las Comisiones Regionales de Competitividad e Innovación con el objetivo de fortalecer la competitividad.

Las comisiones Regionales de Competitividad e Innovación promoverán la implementación de la Agenda Departamental de Competitividad e Innovación, la cual se articulará con la Agenda Nacional en el marco del Sistema Nacional de Competitividad e Innovación.

Parágrafo 1°. La coordinación general y secretaria técnica de la Comisión Nacional de Competitividad e Innovación estará a cargo del Departamento Administrativo de la Presidencia de la República.

Parágrafo 2°. El Gobierno nacional reglamentará la organización, articulación y funcionamiento del Sistema Nacional de Competitividad e Innovación.

Artículo 173. Innovación e implementación de nuevas tecnologías en proyectos de infraestructura de transporte.

Para la promoción del emprendimiento, investigación y desarrollo de nuevas tecnologías e innovación en la infraestructura de transporte, el Invías podrá incentivar la promoción del uso de nuevas tecnologías, mediante la cofinanciación de ejecución de tramos de prueba, con cargo a los presupuestos de los respectivos proyectos de infraestructura en desarrollo de los respectivos contratos.

Parágrafo. La regulación técnica para la implementación, estandarización, seguimiento, metodologías y protocolos de nuevas tecnologías para la intervención de la infraestructura de transporte, se definirá por el Invías

Artículo 174. Incentivos a la generación de energía eléctrica con fuentes no convencionales (FNCE).

Modifíquese el artículo 11 de la Ley 1715 de 2014, el cual quedará así:

Artículo 11. Incentivos a la generación de energía eléctrica con fuentes no convencionales (FNCE). Como Fomento a la Investigación, desarrollo e inversión en el ámbito de la producción de energía eléctrica con FNCE y la gestión eficiente de la energía, los obligados a declarar renta que realicen directamente inversiones en este sentido, tendrán derecho a deducir de su renta, en un período no mayor de 15 años, contados a partir del año gravable siguiente en el que haya entrado en operación la inversión, el 50% del total de la inversión realizada.

El valor a deducir por este concepto en ningún caso podrá ser superior al 50% de la Renta Líquida del contribuyente, determinada antes de restar el valor de la inversión.

Para los efectos de la obtención del presente beneficio tributario, la inversión causante del mismo deberá ser certificada como proyecto de generación de energía eléctrica a partir de FNCE por la Unidad de Planeación Minero Energética (UPME).

Artículo 175.Partidas arancelarias para proyectos de energía solar.

Adiciónense las siguientes partidas arancelarias al cuadro del primer inciso del artículo 424 del Estatuto Tributario:

• 85.04.40.90.90 Inversor de energía para sistema de energía solar con paneles.

• 85.41.40.10.00 Paneles solares.

• 90.32.89.90.00 Controlador de carga para sistema de energía solar con paneles.

Artículo 176.Del establecimiento del seguro agropecuario.

Mediante el cual se modifica el artículo 1° de la Ley 69 de 1993.

Artículo 1°. Del establecimiento del seguro agropecuario. Establézcase el seguro agropecuario en Colombia, como instrumento para incentivar y proteger la producción de alimentos, buscar el mejoramiento económico del sector agropecuario, promover el ordenamiento económico del sector agropecuario y como estrategia para coadyuvar al desarrollo global del país.

El objeto del seguro es la protección de la totalidad o parte de las inversiones agropecuarias financiadas con recursos de crédito provenientes del sistema nacional de crédito agropecuario o con recursos propios del productor. El seguro agropecuario podrá abarcar tanto el daño emergente como el lucro cesante, previendo las necesidades de producción y comercialización, y el desarrollo integral del sector económico primario.

Parágrafo 1°. El seguro agropecuario podrá ofrecerse bajo la modalidad de seguro paramétrico, de manera que el pago de la indemnización se hará exigible ante la realización de un índice definido en el contrato de seguro.

Esta modalidad de seguro podrá ser tomada por cualquier persona natural o jurídica de derecho privado o de derecho público. En este último caso, la entidad de derecho público podrá actuar como tomador, asegurado y/o beneficiario del seguro agropecuario paramétrico, asumir el pago de la prima del seguro y disponer de los recursos recibidos por concepto de indemnización para resarcir a las personas o infraestructura afectada por el riesgo amparado en el seguro. En este último caso, tal erogación se entenderá como gasto público social.

Parágrafo 2°. La Comisión Nacional de Crédito Agropecuario definirá las condiciones para acceder al Incentivo al Seguro Agropecuario bajo la modalidad de seguro paramétrico o por índice, con el fin de garantizar que el diseño del incentivo apoye la política de Gestión de Riesgos Agropecuarios trazada por el Ministerio de Agricultura y Desarrollo Rural.

Artículo 177. Prórroga de la Ley 1556 de 2012.

Prorróguese la vigencia de la Ley 1556 de 2012 y del Fondo Fílmico Colombia allí establecido, hasta el 9 de julio de 2032. El Gobierno nacional promoverá la inclusión de las partidas presupuestales necesarias, convenientes y crecientes a los fines del Fondo Fílmico Colombia, teniendo en consideración la relación positiva de los aportes nacionales por la contraprestación allí establecida y la inversión real en servicios locales, imagen de país y otros fines de la referida Ley.

Parágrafo. La contraprestación del Fondo Fílmico Colombia establecida en la Ley 1556 de 2012, puede otorgarse igualmente a otros géneros audiovisuales realizados en Colombia conforme al Manual de Asignación de Recursos que expide el Comité Promoción Fílmica Colombia. No menos de un cincuenta por ciento (50%) del Fondo Fílmico Colombia será asignado a obras cinematográficas, salvo que no haya postulaciones suficientes o avaladas por el Comité Promoción Fílmica Colombia

Artículo 178. Contraprestación y estímulo a la producción de obras audiovisuales en Colombia.

Modifíquese el artículo 9° de la Ley 1556 de 2012, el cual quedará así:

Artículo 9°. Contraprestación y estímulo a la producción de obras audiovisuales en Colombia. Las empresas productoras de obras audiovisuales, rodadas total o parcialmente dentro del territorio colombiano que celebren los Contratos Filmación Colombia, tendrán una contra prestación equivalente al cuarenta por ciento (40%) del valor de los gastos realizados en el país por concepto de servicios cinematográficos contratados con sociedades colombianas de servicios cinematográficos y al veinte por ciento (20%) del valor de los gastos en hotelería, alimentación y transporte, siempre y cuando se cumplan las condiciones establecidas en el manual de asignación de recursos.

Las obras audiovisuales no nacionales de cualquier género o formato, producidas o posproducidas en Colombia de manera total o parcial cuando sean previamente aprobadas por el Comité Promoción Fílmica Colombia, darán derecho a la solicitud de un Certificado de Inversión Audiovisual en Colombia, descontable del impuesto de renta hasta por un valor equivalente al treinta y cinco por ciento (35%) del valor de la inversión que realicen en Colombia.

Para poder acceder al Certificado de Inversión Audiovisual en Colombia debe demostrarse que la inversión se realizó sobre la contratación de personas naturales o jurídicas colombianas que provean servicios audiovisuales necesarios para las diversas etapas de la realización, producción o posproducción, incluidos servicios de hotelería, alimentación y transporte para la obra respectiva.

Parágrafo 1°. En el caso de las empresas productoras de obras cinematográficas nacionales, estas podrán o no realizar la contratación a través de sociedades colombianas de servicios cinematográficos.

Parágrafo 2°. El titular o productor cinematográfico deberá garantizar integralmente al personal que contrate o vincule laboralmente en el país, los derechos y prestaciones sociales consagrados en la legislación colombiana.

Parágrafo 3°. Las obras audiovisuales a las que se refiere este artículo podrán optar por la contraprestación o el certificado. Ambos mecanismos de estímulo no son compatibles en una misma obra.

Parágrafo 4°. El Certificado de Inversión Audiovisual en Colombia es un valor negociable que se emite a nombre del productor extranjero responsable del proyecto, el cual puede negociarlo con personas naturales o jurídicas declarantes del impuesto de renta en Colombia. El ingreso que obtenga el productor extranjero por la transferencia del Certificado no constituye para él ingreso tributario en Colombia, y no es susceptible de retención en la fuente en el país.

Parágrafo 5°. Para el uso del certificado de inversión audiovisual el Gobierno nacional reglamentará la materia.

Parágrafo 6°. El Comité Promoción Fílmica Colombia fijará en los dos últimos meses de cada año, el monto máximo de Certificados de Inversión Audiovisual en Colombia que podrán otorgarse en el año calendario siguiente, en perspectiva de las condiciones de sector audiovisual, así como el monto mínimo de las inversiones requeridas en el país, el porcentaje de inversión para la operación del sistema de evaluación, seguimiento de proyectos y otorgamiento de los Certificados sin superar un cinco por ciento (5%), requisitos de inversión, sectores audiovisuales destinatarios y demás aspectos operativos correspondientes. El manejo del sistema pertinente de evaluación, seguimiento de proyectos y emisión de los Certificados podrá hacerse, de ser preciso según decisión del Ministerio de Cultura, mediante un contrato de asociación o cooperación con una entidad sin ánimo de lucro afín con los propósitos de esta Ley.

El Manual de Asignación de Recursos que corresponde expedir al Comité Promoción Fílmica Colombia determinará mecanismos similares de operatividad para el sistema de contraprestación del Fondo Fílmico Colombia y el de los Certificados de Inversión Audiovisual en Colombia.

Artículo 179. Áreas de desarrollo naranja.

Se entiende por áreas de desarrollo naranja (ADN) los espacios geográficos que sean delimitados y reconocidos a través de instrumentos de ordenamiento territorial o decisiones administrativas de la entidad territorial, que tengan por objeto incentivar y fortalecer las actividades culturales y creativas previstas en el artículo 2° de la Ley 1834 de 2017. Las ADN basadas en la oferta cultural y creativa son espacios que operan como centros de actividad económica y creativa, contribuyen a la renovación urbana y al mejoramiento del área de ubicación, crean un ambiente propicio en el que confluyen iniciativas en estos campos, fortalecen el emprendimiento, el empleo basado en la creatividad, el turismo, la recuperación del patrimonio cultural construido, la conservación medioambiental, la transferencia de conocimientos, el sentido de pertenencia, la inclusión social y el acceso ciudadano a la oferta cultural y creativa.

Para el desarrollo de cada ADN la autoridad competente podrá definir las actividades culturales y creativas a desarrollar, así como los beneficios normativos y tributarios respectivos.

Para estimular la localización de actividades culturales y creativas en los espacios identificados y crear un ambiente que permita atraer la inversión para mejoras locativas, se podrá promover la exención de un porcentaje del impuesto predial por un tiempo establecido, la exención de un porcentaje del impuesto por la compra o venta de inmuebles y la exención del pago del impuesto de delineación urbana.

En todo caso, las autoridades competentes deben establecer los procedimientos de identificación y registro de los beneficiarios, los procedimientos legales para su operación y los mecanismos de control y seguimiento pertinentes.

En la identificación de los beneficiarios se tendrá en cuenta a los residentes de la zona y a aquellos que realizan allí sus actividades culturales y creativas, para buscar un equilibrio con la inversión público y privada que se atraiga.

Parágrafo. Las inversiones que se realicen en Áreas de Desarrollo Naranja (ADN) tendrán el mismo beneficio de obras por impuestos previsto en el artículo 71 de la Ley 1943 de 2018, que adiciona el artículo 800-1 al Estatuto Tributario. Las entidades estales declarantes de renta y los particulares que participen en asociaciones público privadas regidas por la Ley 1508 de 2012 para la realización de proyectos de economía creativa y que desarrollen infraestructuras en la forma descrita en el precitado artículo 71, también serán destinatarias de este mecanismo.

Las instancias de evaluación, viabilización y aprobación deberán contar con el concepto previo favorable del Ministerio de Cultura. Esta entidad deberá conformar un banco de proyectos susceptibles de contar con viabilidad técnica y presupuestal para recibir el amparo de que trata este artículo y que puedan llevarse a cabo en las ADN que se establezcan.

El Gobierno nacional reglamentará lo previsto en este artículo y tendrá la facultad para definir los topes o montos máximos de los proyectos beneficiarios de obras por impuestos en Áreas de Desarrollo Naranja.

Artículo 180. Proyectos de economía creativa.

El Ministerio de Cultura podrá realizar una convocatoria anual de proyectos de economía creativa en los campos definidos en el artículo 2° de la Ley 1834 de 2017, así como planes especiales de salvaguardia de manifestaciones culturales incorporadas a listas representativas de patrimonio cultural inmaterial acordes con la Ley 1185 de 2008, e infraestructura de espectáculos públicos de artes escénicas previstos en el artículo 4° de la Ley 1493 de 2011, respecto de las cuales las inversiones o donaciones recibirán similar deducción a la prevista en el artículo 195 de la Ley 1607 de 2012. Los certificados de inversión que se generen para amparar el incentivo serán a la orden negociables en el mercado.

El Consejo Nacional de la Economía Naranja establecerá un cupo anual máximo para estos efectos.

Parágrafo 1°. El Ministerio de Cultura podrá definir, de considerarlo necesario, que la convocatoria se realice por intermedio de una entidad sin ánimo de lucro adscrita a esa entidad, para lo cual celebrará de manera directa el respectivo convenio. Las inversiones o donaciones que se canalicen mediante el mecanismo previsto en este artículo deberán cubrir los costos que la convocatoria demande.

Parágrafo 2°. El Gobierno nacional reglamentará la materia teniendo en perspectiva las tipologías de proyectos y sectores susceptibles de ser destinatarios del incentivo, los montos máximos que pueden ser cobijados con el mismo. En el caso de los proyectos diferentes a los de artes y patrimonio, el incentivo de que trata el presente artículo solo será aplicable para proyectos presentados por micro, pequeñas y medianas empresas.

Artículo 181. Acuerdos sobre derechos patrimoniales. Modifíquese el artículo 183 de la Ley 23 de 1982, el cual quedará así:

Artículo 183. Acuerdos sobre derechos patrimoniales. Los acuerdos sobre derechos patrimoniales de autor o conexos, deberán guiarse por las siguientes reglas:

Los derechos patrimoniales de autor o conexos pueden transferirse, o licenciarse por acto entre vivos, quedando limitada dicha transferencia o licencia a las modalidades de explotación previstas y al tiempo y ámbito territorial que se determinen contractualmente.

La falta de mención del tiempo limita la transferencia o licencia a cinco (5) años, y la del ámbito territorial, al país en el que se realice la transferencia o licencia.

Los actos o contratos por los cuales se transfieren, parcial o totalmente, los derechos patrimoniales de autor o conexos deberán constar por escrito como condición de validez.

Todo acto por el cual se enajene, transfiera, cambie o limite el dominio sobre el derecho de autor, o los derechos conexos, así como cualquier otro acto o contrato que implique exclusividad, deberá ser inscrito en el Registro Nacional del Derecho de Autor, para efectos de publicidad y oponibilidad ante terceros.

Será ineficaz toda estipulación en virtud de la cual el autor transfiera de modo general o indeterminable la producción futura, o se obligue a restringir su producción intelectual o a no producir.

Será ineficaz toda estipulación que prevea formas de explotación o modalidades de utilización de derechos patrimoniales de autor o conexos, que sean inexistentes o desconocidas al tiempo de convenir la transferencia, autorización o licencia.

Artículo 182. Fomento de los microcréditos.

En armonía con las Bases del “Plan Nacional de Desarrollo 2018-2022 Pacto por Colombia, Pacto por la Equidad”, el Gobierno nacional reglamentará la manera en que se profundicen los microcréditos a través de las entidades del sector financiero como instrumento de formalización de generación de empleo e instrumento para combatir el “gota a gota” o “paga diario”.

Parágrafo. El Gobierno nacional fomentará el desarrollo de cadenas productivas entre empresarios MiPymes a través de figuras como la Asociatividad que generen valor agregado al producto final y permitan mayor innovación tecnológica entre las unidades productivas.

SECCIÓN III. PACTO POR LA EQUIDAD: POLÍTICA SOCIAL MODERNA CENTRADA EN LA FAMILIA, EFICIENTE, DE CALIDAD Y CONECTADA A MERCADOS

SUBSECCIÓN 1. EQUIDAD EN LA EDUCACIÓN

Artículo 183. Fortalecimiento financiero de la educación superior pública.

La Ley Anual de Presupuesto para 2020 asignará a la base presupuestal de funcionamiento de las Instituciones de Educación Superior Pública un incremento del IPC más 4 puntos a los recursos de transferencia ordinaria. La Ley Anual de Presupuesto para 2021 asignará a la base presupuestal de funcionamiento de las Instituciones de Educación Superior Pública un incremento del IPC más 4,5 puntos a los recursos de transferencia ordinaria. La Ley Anual de Presupuesto para 2022 asignará a la base presupuestal de funcionamiento de las Instituciones de Educación Superior Pública un incremento del IPC más 4,65 puntos a los recursos de transferencia ordinaria. El Ministerio de Educación Nacional establecerá los mecanismos de distribución de estos recursos, con criterios de equidad y fortalecimiento institucional, entre otros.

La Nación asignará recursos de funcionamiento del Presupuesto General de la Nación a todas las Instituciones de Educación Superior que son establecimientos públicos del orden territorial. Para ello el Ministerio de Educación Nacional establecerá anualmente con estas instituciones, el mecanismo de inversión en los presupuestos institucionales.

La Nación financiará proyectos de inversión de las Instituciones de Educación Superior Públicas los cuales no harán parte de la base presupuestal, que incluyen saneamiento de pasivos y aportes adicionales de inversión.

Estos programas incluirán medidas orientadas al pago de acreencias laborales, reestructuración y saneamiento de pasivos, adquisición de cartera, y estarán precedidos del estudio que realizará cada Institución de Educación Superior Pública, el cual deberá ser validado por el Ministerio de Educación Nacional.

Los recursos adicionales para inversión también se podrán destinar para el mejoramiento de la calidad de las Instituciones de Educación Superior Públicas, de acuerdo con las líneas definidas por el Ministerio de Educación Nacional.

El Gobierno nacional adelantará un proceso de revisión integral de fuentes y usos de los recursos de las Instituciones de Educación Superior Públicas con miras a plantear una reforma al esquema de financiación de las mismas, que permita la garantía de su financiación y sostenibilidad en el mediano y largo plazo.

Artículo 184. Fondo de financiamiento de la infraestructura educativa.

Modifíquese el artículo 59 de la Ley 1753 de 2015, el cual quedará así:

Artículo 59. Fondo de financiamiento de la infraestructura educativa. El Fondo de Financiamiento de la Infraestructura es una cuenta especial del Ministerio de Educación Nacional sin personería jurídica, cuyo objeto es la viabilización y financiación de proyectos para la construcción, mejoramiento, adecuación, ampliaciones y dotación de infraestructura educativa física y digital de carácter público en educación inicial, preescolar, educación básica y media, en zonas urbanas y rurales, incluyendo residencias escolares en zonas rurales dispersas, así como los contratos de interventoría asociados a tales proyectos.

Con cargo a los recursos administrados por el Fondo de Financiamiento de la Infraestructura Educativa, se asumirán los costos en que se incurra para el manejo y control de los recursos y los gastos de operación del fondo.

El Fondo de Financiamiento de la Infraestructura Educativa será administrado por una junta cuya estructura y funcionamiento serán definidos por el Gobierno nacional.

Los recursos del Fondo de Financiamiento de la Infraestructura Educativa para educación inicial, preescolar, básica y media provendrán de las siguientes fuentes:

a) Los provenientes del recaudo establecido en el artículo 11 de la Ley 21 de 1982, destinados al Ministerio de Educación Nacional.

b) Las partidas que se le asignen en el Presupuesto Nacional y estén contenidas en el Marco Fiscal de Mediano Plazo y el Marco de Gastos de Mediano Plazo.

c) Los rendimientos financieros derivados de la inversión de sus recursos.

Así mismo, los proyectos de infraestructura educativa que se desarrollen a través del Fondo podrán contar con recursos provenientes de:

d) El Sistema General de Regalías destinados a proyectos específicos de infraestructura educativa, para los casos en que el OCAD designe al Ministerio de Educación Nacional como ejecutor de los mismos.

e) Los recursos de cooperación internacional o cooperación de privados que este gestione o se gestionen a su favor.

f) Aportes de los departamentos, distritos y municipios y de esquemas asociativos territoriales: regiones administrativas y de planificación, las regiones de planeación y gestión, las asociaciones de departamentos, las áreas metropolitanas, las asociaciones de distritos especiales, las provincias administrativas y de planificación, las asociaciones de municipio y la Región Administrativa de Planificación Especial (RAPE).

g) Participación del sector privado mediante proyectos de Asociaciones Público- Privadas.

h) Obras por impuestos.

En caso de que un proyecto priorizado por la Junta Administradora involucre cualquiera de los recursos de que tratan los literales d), e), f), g) y h) del presente artículo, con cargo al Fondo de Financiamiento de la Infraestructura Educativa se podrán constituir patrimonios autónomos que se regirán por normas de derecho privado en donde podrán confluir todas las fuentes de recursos con las que cuenten los proyectos. Dichos Patrimonios Autónomos, podrán celebrar operaciones de crédito interno o externo a su nombre, para lo cual la Nación podrá otorgar los avales o garantías correspondientes.

Parágrafo 1°. Todo proyecto sufragado por el Fondo de Financiamiento de la Infraestructura Educativa deberá contemplar obligatoriamente los ajustes razonables para acceso a la población con discapacidad de que trata la Ley Estatutaria 1618 de 2013 o la que la modifique o sustituya.

Parágrafo 2°. El Ministerio de Educación Nacional diseñará mecanismos para fortalecer la gestión y gobernanza del Fondo, incluyendo la participación de representantes de entidades territoriales en la Junta Directiva; mejorar la coordinación y articulación con los territorios; definir criterios de priorización para la estructuración y ejecución de proyectos, con énfasis en iniciativas de zonas rurales dispersas y propender por un sistema adecuado de rendición de cuentas.

Parágrafo 3°. El Fondo levantará la información y elaborará el diagnóstico de la infraestructura educativa a nivel nacional.

Parágrafo 4°. El régimen de contratación del Fondo de Financiamiento de Infraestructura Educativa estará orientado por los principios que rigen la contratación pública y las normas dirigidas a prevenir, investigar y sancionar actos de corrupción. La selección de sus contratistas estará precedida de procesos competitivos, regidos por los estándares y lineamientos que establezca Colombia Compra Eficiente, los cuales deberán incorporar condiciones tipo, así como elementos para evitar la concentración de proveedores y para promover la participación de contratistas locales. Los procesos de contratación deberán tener especial acompañamiento de los órganos de control.

Artículo 185. Avance en el acceso en educación superior pública.

El Gobierno nacional avanzará en un proceso gradual para el acceso, permanencia y graduación en la educación superior pública de la población en condiciones de vulnerabilidad, incluida la rural, que sea admitida en una institución de educación superior pública, de formación técnica profesional, tecnológica y universitaria. Para este fin, podrán establecerse apoyos para pago de matrícula a través del Icetex y subsidios de sostenimiento con cargo a programas del Ministerio de Educación Nacional, el Departamento Administrativo para la Prosperidad Social y otras fuentes.

Artículo 186. Excedentes del Icetex.

El Ministerio de Educación Nacional podrá utilizar los excedentes que se generen en el Icetex a partir de los recursos girados por la Nación. En caso de hacerlo, debe destinarlos prioritariamente a atender los subsidios de tasa de interés, condonación y manutención asociados a los créditos educativos; a programas de alivio de cartera para sus beneficiarios o de fortalecimiento de la educación superior; al pago de las obligaciones que el Icetex haya adquirido con dichos fines; a financiar las renovaciones o las adjudicaciones de nuevos créditos educativos o para otros objetivos similares.

Artículo 187. Armonización del plan nacional de desarrollo con el plan nacional decenal de educación 2016-2026.

En cumplimiento de lo ordenado por la Ley General de Educación (Ley 115 de 1994), la política educativa del Gobierno nacional contenida en el presente Plan Nacional de Desarrollo deberá armonizarse con los propósitos y lineamientos del Plan Nacional Decenal de Educación 2016-2026. Con el fin de fortalecer la planeación educativa en las regiones, los departamentos, distritos y municipios articularán y armonizarán sus Planes de Desarrollo en materia educativa con lo dispuesto en el Plan Decenal de Educación 2016-2026 y en el Plan Nacional de Desarrollo.

Artículo 188. Comisión para la revisión del sistema general de participaciones.

Créase una Comisión de alto nivel, que se instalará dentro de los dos (2) meses siguientes contados a partir de la expedición y entrada en vigencia del presente Plan Nacional de Desarrollo, y sesionará durante los seis (6) meses siguientes, para elaborar una propuesta de acto legislativo que incremente real y progresivamente los recursos del Sistema General de Participaciones.

La Comisión estará bajo el liderazgo del Ministerio de Hacienda y Crédito Público y el Departamento Nacional de Planeación, y harán parte de ella: el Ministerio de Educación Nacional, el Ministerio de Salud y Protección Social, el Ministerio de Vivienda, Ciudad y Territorio, el Ministerio del Interior, la Federación Colombiana de Trabajadores de la Educación, la Federación Colombiana de Municipios, Asocapitales y la Federación Nacional de Departamentos, agremiaciones, organizaciones y sectores sociales involucrados en las transferencias del Sistema General de Participaciones.

Artículo 189.Creación de la unidad administrativa especial de alimentación escolar.

Créase la unidad administrativa especial de alimentación escolar, como una entidad adscrita al Ministerio de Educación Nacional, con autonomía administrativa, personería jurídica y patrimonio independiente, su domicilio será la ciudad de Bogotá y contará con la estructura interna y la planta de personal que el Gobierno nacional establezca en desarrollo de sus facultades; tendrá como objeto fijar y desarrollar la política en materia de alimentación escolar; sus objetivos específicos serán: 1) Fortalecer los esquemas de financiación del Programa de Alimentación Escolar. 2) Definir esquemas para promover la transparencia en la contratación del Programa de Alimentación Escolar. 3) Ampliar su cobertura y garantizar la continuidad con criterios técnicos de focalización. 4) Garantizar la calidad e inocuidad de la alimentación escolar. 5) Proponer modelos de operación para fortalecer la territorialidad en esta materia. El patrimonio de la entidad estará integrado por fuentes del Presupuesto General de la Nación, fuentes locales y otras fuentes. La Unidad estará administrada y dirigida por un gerente de libre nombramiento y remoción del Presidente de la República, por un consejo directivo, integrado por el Ministro de Educación, quien lo presidirá, y por los demás delegados o representantes que indique el Gobierno nacional. La entidad deberá entrar en funcionamiento en el año 2020.

Artículo 190. Becas por impuestos.

Adiciónese el siguiente artículo al Estatuto Tributario, el cual quedará así:

Artículo 257-1. Becas por impuestos. Las personas naturales o jurídicas contribuyentes del Impuesto sobre la renta y complementarios podrán celebrar convenios con Coldeportes para asignar becas de estudio y manutención a deportistas talento o reserva deportiva, por las que recibirán a cambio títulos negociables para el pago del impuesto sobre la renta.

Coldeportes reglamentará en un plazo no mayor a seis (6) meses de la expedición de la presente ley el mecanismo de selección, evaluación y seguimiento de los deportistas beneficiados, así como los criterios de inclusión y de exclusión del programa y los criterios técnico-deportivos aplicables para el concepto de manutención.

Los descuentos de los que trata este artículo y en su conjunto los que tratan los artículos 255, 256 y 257 del Estatuto Tributario no podrán exceder en un 30% del impuesto sobre la renta a cargo del contribuyente en el respectivo año gravable.

Artículo 191.Reconocimiento de títulos en educación superior.

El Ministerio de Educación Nacional diseñará e implementará un nuevo modelo de convalidaciones, de acuerdo con las distintas tipologías existentes en la materia, cuya duración no podrá exceder en ningún caso los seis (6) meses, a partir de la fecha de inicio del trámite.

Parágrafo 1°. Para el caso de profesiones reguladas, el Ministerio contará con una reglamentación específica. No obstante, los tiempos de trámite para la convalidación no podrán exceder lo establecido previamente.

Parágrafo 2°. El Ministerio de Educación realizará las mejoras administrativas y tecnológicas para el seguimiento del trámite de convalidación. Así mismo, pondrá a disposición de los ciudadanos la información sobre las instituciones y programas acreditados o reconocidos en alta calidad por parte de una entidad gubernamental competente, u organización privada autorizada oficialmente para ello en el país de origen del título, además pondrá a disposición la información sobre los sistemas educativos del mundo.

SUBSECCIÓN 2. EQUIDAD EN EL TRABAJO

Artículo 192. Prácticas laborales. Además de lo previsto en el artículo 15 de la Ley 1780 de 2016, las prácticas laborales podrán desarrollarse por estudiantes de educación superior de posgrado, de educación para el trabajo y desarrollo humano, de formación profesional integral del SENA, así como de toda la oferta de formación por competencias.

Parágrafo 1°. El tiempo de la práctica laboral que el estudiante realice para optar a su título de profesional, tecnológico o técnico cuenta como experiencia laboral, sin perjuicio de las disposiciones vigentes en la materia.

Parágrafo 2°. Las prácticas laborales realizadas durante los veinticuatro (24) meses anteriores a la entrada en vigencia de la presente Ley, serán tenidas en cuenta al momento de contabilizar el tiempo de experiencia laboral.

Parágrafo 3°. Se exceptúan de lo dispuesto en el presente artículo, los estudiantes de posgrado del sector salud.

Parágrafo 4°. En el sector público se generarán oportunidades de prácticas laborales para estudiantes de administración pública.

Artículo 193. Piso de protección social para personas con ingresos inferiores a un salario mínimo.

Las personas que tengan relación contractual laboral o por prestación de servicios, por tiempo parcial y que en virtud de ello perciban un ingreso mensual inferior a un (1) Salario Mínimo Mensual Legal Vigente (SMLMV) deberán vincularse al Piso de Protección Social que estará integrado por:

i) el Régimen Subsidiado del Sistema General de Seguridad en Salud,

ii) el Servicio Social Complementario de Beneficios Económicos Periódicos (BEPS) como mecanismo de protección en la vejez y

iii) el Seguro Inclusivo que amparará al trabajador de los riesgos derivados de la actividad laboral y de las enfermedades cubiertas por BEPS.

En estos eventos el aporte al programa de los Beneficios Económicos Periódicos (BEPS) deberá ser asumido enteramente por el empleador o el contratante y corresponderá al 15% del ingreso mensual del trabajador o contratista. De este monto se destinará el 1% para financiar el Fondo de Riesgos Laborales, con el fin de atender el pago de la prima del Seguro Inclusivo.

Sin perjuicio de lo anterior, las personas que no tengan una vinculación laboral o no hayan suscrito un contrato de prestación de servicios y no tengan capacidad de pago para cubrir el monto total de la cotización al Sistema Integral de Seguridad Social podrán afiliarse y/o vincularse bajo la modalidad del piso de protección social de que trata este artículo y serán los responsables de realizar el aporte al programa BEPS y el pago del seguro inclusivo. En todo caso, las personas deberán cumplir con los requisitos de acceso o pertenencia a los diferentes componentes del piso de protección social.

Parágrafo 1°. En ningún caso el ahorro en el mecanismo de los Beneficios Económicos Periódicos podrá ser inferior al tope mínimo establecido para ese Servicio Social Complementario.

Parágrafo 2°. El Gobierno nacional reglamentará la materia; así mismo podrá establecer mecanismos para que los vinculados al programa BEPS, realicen ahorros en este servicio social complementario de forma conjunta con la adquisición de bienes y servicios, y para que los trabajadores dependientes cobijados por el presente artículo tengan acceso al sistema de subsidio familiar.

Parágrafo 3°. Los empleadores o contratantes que a la entrada en vigencia de la presente Ley cuenten con trabajadores o contratistas afiliados al sistema de seguridad social en su componente contributivo, y que con el propósito de obtener provecho de la reducción de sus aportes en materia de seguridad social desmejoren las condiciones económicas de dichos trabajadores o contratistas mediante la implementación de uno o varios actos o negocios jurídicos artificiosos que conlleve a su afiliación al piso mínimo de protección social, independientemente de cualquier intención subjetiva adicional, serán objeto de procesos de Fiscalización preferente en los que podrán ser sancionados por la Unidad de Gestión de Pensiones y Parafiscales (UGPP) por no realizar en debida forma los aportes a seguridad social que le correspondan, una vez surtido el debido proceso y ejercido el derecho a la defensa a que haya lugar.

Parágrafo 4°. Una vez finalizado el periodo de ahorro en el mecanismo de Beneficios Económicos Periódicos (BEPS), el ahorrador tendrá derecho a elegir si recibe la anualidad vitalicia o la devolución del valor ahorrado, caso en el cual no habrá lugar al pago del incentivo periódico, conforme a la normatividad vigente.

Artículo 194. Sistema nacional de cualificaciones.

Créase el Sistema Nacional de Cualificaciones (SNC) como un conjunto de políticas, instrumentos, componentes y procesos necesarios para alinear la educación y formación a las necesidades sociales y productivas del país y que promueve el reconocimiento de aprendizajes, el desarrollo personal y profesional de los ciudadanos, la inserción o reinserción laboral y el desarrollo productivo del país. Son componentes del SNC: el Marco Nacional de Cualificaciones (MNC), los subsistemas de aseguramiento de la calidad de la educación y la formación, de normalización de competencias y de evaluación y certificación de competencias, el esquema de movilidad educativa y formativa, así como la plataforma de información del SNC.

Se crea el Marco Nacional de Cualificaciones (MNC), para clasificar y estructurar las cualificaciones en un esquema de ocho (8) niveles ordenados y expresados en términos de conocimientos, destrezas y aptitudes, de acuerdo con la secuencialidad y complejidad de los aprendizajes que logran las personas en las diferentes vías de cualificación.

Se crea el Esquema de Movilidad Educativa y Formativa, para facilitar la movilidad de las personas entre las diferentes vías de cualificación que son la educativa, la formación para el trabajo y el reconocimiento de aprendizajes previos para la certificación de competencias, con el fin de promover las rutas de aprendizaje, las relaciones con el sector productivo y el aprendizaje a lo largo de la vida.

Como una vía de cualificación dentro del Sistema Nacional de Cualificaciones, se crea el Subsistema de Formación para el Trabajo. Esta formación se estructurará en diversos niveles de complejidad, desde los iniciales hasta los más avanzados, de acuerdo con las necesidades del sector productivo. Sus oferentes son el Servicio Nacional de Aprendizaje (SENA), las Instituciones de Educación para el Trabajo y Desarrollo Humano (ETDH) y las Instituciones de Educación Superior con oferta de formación para el trabajo que formen por competencias y cumplan los requisitos y mecanismos que para tal fin se establezcan.

Parágrafo 1°. El Gobierno nacional, con el liderazgo del Ministerio de Educación Nacional y del Ministerio del Trabajo, establecerá la estructura, las condiciones y mecanismos del Subsistema de formación para el trabajo y de sus procesos de aseguramiento de calidad. Para ello, se definirán las competencias de cada uno de estos dos ministerios. El Ministerio del Trabajo reglamentará la oferta y los niveles de la ETDH y el SENA en lo relacionado con la formación para el trabajo.

Parágrafo 2°. Los programas de formación para el trabajo por competencias serán estructurados con base en el subsistema de normalización de competencias y el Marco Nacional de Cualificaciones.

Parágrafo 3°. Las condiciones y mecanismos para la acreditación de las entidades públicas certificadoras de competencias laborales, serán reglamentadas por el Ministerio del Trabajo.

Parágrafo 4°. El Gobierno nacional reglamentará lo dispuesto en el presente artículo.

Artículo 195. Inclusión laboral.

Todos los mecanismos, instrumentos, acciones y servicios que promuevan la inclusión laboral deberán implementarse a través de la Red de Prestadores del Servicio Público de Empleo. La Unidad Administrativa Especial del Servicio Público de Empleo, como articuladora de la Red, definirá los servicios básicos y especializados de gestión y colocación de empleo y fijará las reglas para la prestación de estos servicios, para contribuir al acceso al empleo formal de las personas que enfrentan barreras, especialmente la población más vulnerable.

Parágrafo 1°. Las personas jurídicas autorizadas que presten servicios de gestión y colocación de empleo de que trata el artículo 30 de la Ley 1636 de 2013, tendrán que articularse para garantizar el acceso público y transparente a todas las vacantes ofrecidas por los empleadores, en la Red de Prestadores del Servicio Público de Empleo y estas deberán ser reportadas al Sistema de Información administrado por la UAESPE.

Parágrafo 2°. Las personas jurídicas y naturales, nacionales o internacionales, que por su experiencia, representatividad o reconocimiento en modelos de inclusión laboral puedan aportar conocimientos y herramientas para aumentar el acceso de las personas al mercado laboral, especialmente de población vulnerable, lo podrán hacer a través de asesoría técnica y alianzas con los prestadores del servicio público de empleo, previa autorización de la Unidad Administrativa Especial del Servicio Público de Empleo.

Artículo 196. Generación de empleo para la población joven del país.

Con el fin de generar oportunidades de empleo para la población joven del país y permitir superar las barreras de empleabilidad de este grupo poblacional, las entidades públicas darán prioridad a la vinculación de jóvenes entre 18 y 28 años, para lo cual deberán garantizar cuando adelanten modificaciones a su planta de personal, que el diez por ciento (10%) de los nuevos empleos no requieran experiencia profesional, con el fin de que sean provistos con jóvenes egresados de programas técnicos, tecnológicos y de pregrado. Para la creación de nuevos empleos de carácter permanente del nivel profesional, no se exigirá experiencia profesional hasta el grado once (11) y se aplicarán las equivalencias respectivas.

Parágrafo 1°. Las entidades públicas deberán adecuar sus manuales de funciones y competencias laborales para permitir el nombramiento de jóvenes entre los 18 y 28 años graduados y que no tengan experiencia, o para determinar las equivalencias que corresponda, siempre y cuando cumplan con los requisitos del cargo.

Parágrafo 2°. Las entidades y organismos que creen empleos de carácter temporal deberán garantizar que el 10% de estos empleos sean asignados para jóvenes entre los 18 y 28 años.

Parágrafo 3°. Cuando las entidades públicas vinculen provisionales a sus plantas de personal deberán dar prioridad a los jóvenes entre los 18 y 28 años para dicha vinculación.

Parágrafo 4°. Para el cumplimiento en lo consagrado en el presente artículo, tendrán prioridad los jóvenes entre los 18 y 28 años que estuvieron bajo custodia y protección del Sistema Nacional de Bienestar Familiar.

Artículo 197. Intervención en actividades financiera y aseguradora.

Adicionar un literal r) al artículo 46 del Estatuto Orgánico del Sistema Financiero el cual quedará de la siguiente manera:

r) Garantizar la suficiencia del Sistema General de Riesgos Laborales, a través de la actualización de las actividades económicas y los montos de cotización aplicables a estas

Artículo 198. Promoción de los beneficios económicos periódicos.

En el evento en que los afiliados al Sistema General de Pensiones obtengan como prestación sustituta una devolución de saldos o indemnización sustitutiva de vejez, estos recursos serán trasladados al mecanismo de los Beneficios Económicos Periódicos para el reconocimiento de una anualidad vitalicia en las condiciones legales vigentes, excepto en el evento en que el afiliado manifieste su decisión de recibir dicha prestación, dentro de los seis (6) meses siguientes a la notificación personal del documento o acto que la define. Corresponderá a Colpensiones con antelación al reconocimiento de la indemnización sustitutiva o la devolución de saldos en el Régimen de Ahorro Individual, brindar de manera obligatoria a los afiliados, asesoría respecto de los Beneficios Económicos Periódicos. El Gobierno nacional reglamentará la materia y las especificaciones para la entrega de información por parte de las administradoras de fondos de pensiones y de asesoría y asistencia técnica al afiliado.

Parágrafo. Los colombianos que residen en el exterior y no estén cotizando al Sistema de Seguridad Social Colombiano pueden voluntariamente vincularse al Programa de Beneficios Económicos Periódicos (BEPS). El Gobierno nacional reglamentará el procedimiento administrativo para hacer efectiva la participación al programa.

Artículo 199. Financiación de obligaciones pensionales con recursos del Fonpet.

Adicional a lo establecido en las normas vigentes, con cargo a los recursos del Fondo Nacional de Pensiones de las Entidades Territoriales (Fonpet) las entidades territoriales podrán pagar las siguientes obligaciones:

1) La deuda con el Fondo Nacional de Prestaciones Sociales del Magisterio (Fomag) por concepto del pasivo pensional corriente del Sector Educación.

2) Las cuotas partes pensiónales corrientes de la vigencia en curso, a las entidades públicas acreedoras.

3) Las mesadas pensionales corrientes de la vigencia a cargo de la administración central territorial.

Para determinar la cobertura de los pasivos pensionales, las entidades territoriales podrán girar voluntariamente al Fonpet otros recursos que acumulen para el pago de su pasivo pensional. El Ministerio de Hacienda y Crédito Público determinará las instrucciones operativas para el recibo de estos recursos que tendrán las mismas condiciones de administración existentes para la cuenta individual de la entidad territorial.

Los recursos que aporte la Nación al Fonpet, y los que se encuentren pendientes por distribuir de la Nación, destinados a financiar obligaciones pensionales, se distribuirán entre todas las entidades territoriales que no hayan alcanzado el cubrimiento de su pasivo pensional.

Las entidades territoriales que soliciten el retiro de recursos ahorrados en el Fonpet, deberán cumplir con la obligación de suministrar la información requerida en el artículo 9° de la Ley 549 de 1999, de lo contrario el Fondo podrá no autorizar el retiro de los mismos.

Artículo 200.Terminación del procedimiento sancionatorio laboral.

El Ministerio del Trabajo podrá dar por suspendido o terminado, mediante mutuo acuerdo, un procedimiento administrativo sancionatorio por violación de normas laborales, diferentes a las relativas a la formalización laboral.

La terminación por mutuo acuerdo estará condicionada a que los investigados reconozcan el incumplimiento de las normas laborales o de seguridad social integral, y garanticen la implementación por parte de los empleadores investigados, de medidas dirigidas a corregir las causas por las cuales se dio inicio a la actuación administrativa.

Se suspenderá el procedimiento cuando los investigados reconozcan el incumplimiento de las normas y se comprometan a implementar las medidas correctivas mediante un plan de mejoramiento que contenga plazos razonables, no superiores a un (1) año, el cual deberá ser aprobado por el Ministerio del Trabajo. Una vez se implemente el plan de mejoramiento en su totalidad, se dará por terminado el procedimiento.

Si la suspensión por mutuo acuerdo se suscribiere en la etapa de averiguación preliminar no habrá lugar a sanción alguna; si se suscribiera entre la formulación de cargos y la presentación de descargos, la sanción tendrá una rebaja de la mitad; y si se suscribiera entre el período probatorio y la presentación de alegatos, la sanción tendrá una rebaja de una tercera parte. Si no se diere cumplimiento al plan de mejoramiento, se levantará la suspensión y se continuará con las etapas restantes del procedimiento, sin que proceda reducción alguna en la sanción. Este beneficio no procederá en caso de reincidencia de las mismas infracciones.

El Ministerio del Trabajo reglamentará lo atinente a lo estipulado en el presente artículo.

Artículo 201. Fondo para el fortalecimiento de la inspección, vigilancia y control del trabajo y la seguridad social (Fivicot).

Créase el Fondo para el Fortalecimiento de la Inspección, Vigilancia, y Control del Trabajo y la Seguridad Social (Fivicot), como una cuenta especial de la Nación, sin personería jurídica, adscrita al Ministerio del Trabajo, cuyos recursos se destinarán a fortalecer la Inspección, Vigilancia y Control del Trabajo y la Seguridad Social.

El Fondo estará conformado por las multas que se impongan por las autoridades administrativas del trabajo a partir del primero (1°) de enero de 2020, por la violación de las disposiciones relativas a las condiciones de trabajo, así como a la protección de los trabajadores en el ejercicio de su profesión y del derecho de libre asociación sindical.

Parágrafo. El Gobierno nacional reglamentará el presente artículo en el plazo máximo de seis (6) meses.

Artículo 202. Objeto del fondo de riesgos laborales.

Adiciónese el literal i) al artículo 12 de la Ley 1562 de 2012, en los siguientes términos:

i) Compensar a las Administradoras de Riesgos Laborales que asuman el aseguramiento de riesgos con alta siniestralidad, alto costo operativo, o la combinación de ambos fenómenos, mediante una subcuenta de compensación que será financiada con el 50% del recaudo correspondiente a las cotizaciones a cargo de los empleadores y trabajadores independientes establecido en el artículo 89 del Decreto Ley 1295 de 1994 y las normas que lo modifiquen o adicionen.

Artículo 203. Servicios de promoción y prevención.

Modifíquese el segundo inciso del Parágrafo 5° del artículo 11 de la Ley 1562 de 2012, el cual quedará así:

En caso de que se utilice algún intermediario las ARL podrán pagar las comisiones del ramo con cargo a las cotizaciones o primas, incluidas las de riesgos laborales, o con los rendimientos financieros de las inversiones de las reservas técnicas, siempre que hayan cumplido sus deberes propios derivados de la cobertura de las prestaciones del sistema, y los destine como parte de los gastos de administración. El Gobierno nacional, con base en estudios técnicos, determinará el valor máximo de estas comisiones.

Artículo 204. Exoneración de aportes.

Adiciónese un inciso al Parágrafo 2° del artículo 114-1 del Estatuto Tributario, así:

Las entidades de que trata el artículo 19-4 del Estatuto Tributario conservan el derecho a la exoneración de que trata este artículo.

Artículo 205. Aplicaciones y plataformas tecnológicas.

El Gobierno nacional a través del Ministerio del Trabajo, en coordinación con los Ministerios de Salud y Protección Social, Hacienda y Crédito Público y de las Tecnologías de la Información y las Comunicaciones, diseñarán y formularán una política pública que permita, entre otros, caracterizar las condiciones de prestación de servicio y las modalidades de protección y seguridad social que se puedan generar del uso de estas aplicaciones y plataformas.

Las aplicaciones y plataformas, así como las personas naturales y jurídicas del sector, suministrarán la información necesaria que servirá de insumo para la política pública y los estudios sectoriales que se requiera, incluyendo la caracterización del sector.

Parágrafo. Dentro del año siguiente a la promulgación de la presente Ley, el Gobierno nacional presentará al Congreso de la República un proyecto de ley que definirá la forma de vinculación correspondiente de los actores del sector y el acceso y aporte a la seguridad social integral para las personas que presten sus servicios a través de las aplicaciones y plataformas tecnológicas.

SUBSECCIÓN 3. EQUIDAD PARA LA PROSPERIDAD SOCIAL

Artículo 206. Política de atención integral a la primera infancia, infancia y adolescencia.

Modifíquese el literal a) y adiciónese un Parágrafo al artículo 82 de la Ley 1753 de 2015, el cual quedará así:

a) Formulación e implementación de rutas integrales de atención que articulen y armonicen la oferta pública y privada, incluyendo las relacionadas con prevención de la violencia juvenil y el consumo de sustancias psicoactivas y estupefacientes.

Parágrafo. El Gobierno nacional a través de los agentes del Sistema Nacional de Bienestar Familiar (SNBF), establecerá las condiciones institucionales, técnicas y financieras para la puesta en marcha de una oferta de atención especializada a niños, niñas y adolescentes con dependencia funcional permanente, y de aquellos que presenten consumo problemático de sustancias psicoactivas (SPA), en complementariedad y concurrencia con los gobiernos territoriales y en el marco de sus competencias.

Artículo 207. Acceso preferente a la oferta del sector de inclusión social y reconciliación.

Los niños, las niñas y los adolescentes en procesos de protección y las familias en programas de acompañamiento familiar del Instituto Colombiano de Bienestar Familiar (ICBF), tendrán acceso preferente a la oferta del Sector de Inclusión Social y Reconciliación, para la superación de las condiciones sociales y económicas que incidieron en la vulneración de sus derechos.

Parágrafo. El Departamento Administrativo para la Prosperidad Social, en articulación con el Instituto Colombiano de Bienestar Familiar (ICBF), adelantarán las acciones correspondientes para el desarrollo de los instrumentos técnicos y normativos necesarios para garantizar el acceso preferencial a esta población.

Artículo 208. Medidas de restablecimiento de derechos y de declaratoria de vulneración.

Modifíquese el inciso sexto del artículo 103 de la Ley 1098 de 2006, modificado por el artículo 6° de la Ley 1878 de 2018, y adiciónense los siguientes incisos, así:

El Proceso Administrativo de Restablecimiento de Derechos con el seguimiento tendrá una duración de dieciocho (18) meses, contados a partir del conocimiento de los hechos por parte de la autoridad administrativa hasta la declaratoria de adoptabilidad o el cierre del proceso por haberse evidenciado con los seguimientos, que la ubicación en medio familiar fue la medida idónea.

Con el fin de garantizar una atención con enfoque diferencial, en los casos en que se advierta que un proceso no puede ser definido de fondo en el término máximo establecido, por las situaciones fácticas y probatorias que reposan en el expediente, el ICBF reglamentará un mecanismo para analizar el proceso y darle el aval a la autoridad administrativa para la ampliación del término.

Cuando se trata de procesos administrativos de restablecimiento de derechos de niños, niñas, adolescentes y adultos con discapacidad en los cuales se hubiere superado la vulneración de derechos, transitoriamente se continuará con la prestación del servicio de la modalidad de protección cuando se requiera, hasta tanto la entidad correspondiente del Sistema Nacional de Bienestar Familiar garantice la prestación del servicio de acuerdo con sus competencias legales.

En los casos en que se otorgue el aval, la autoridad administrativa emitirá una resolución motivada decretando la ampliación del término y relacionando el acervo documental que soporta esta decisión.

Artículo 209. Estrategia sacúdete.

El Gobierno nacional, bajo la coordinación técnica de la Dirección del Sistema Nacional de Juventud “Colombia Joven”, reglamentará e implementará la Estrategia Sacúdete, cuyo objeto es desarrollar, fortalecer y potenciar los talentos, capacidades y habilidades de los jóvenes, a través de la transferencia de conocimientos y herramientas metodológicas, que faciliten la inserción en el mercado productivo y la consolidación de proyectos de vida legales y sostenibles.

Las entidades vinculadas a la implementación de la Estrategia Sacúdete son: Ministerio de Comercio, Industria y Turismo, Ministerio de Trabajo, Ministerio de Justicia y del Derecho, Ministerio de Cultura, Ministerio de Salud y Protección Social, Ministerio de Ambiente y Desarrollo Sostenible, Ministerio de Educación Nacional, Ministerio de Tecnologías de la Información y las Comunicaciones, Ministerio de Agricultura y Desarrollo Rural, Departamento para la Prosperidad Social, Ministerio de Ciencia, Tecnología e Innovación, Departamento Administrativo Nacional de Estadística, SENA, ICBF y Coldeportes.

Para el diseño e implementación de esta estrategia, se podrán destinar recursos de las entidades públicas del orden nacional y territorial, de organismos internacionales de desarrollo, de convenios de cooperación internacional y de convenios con organizaciones privadas.

Artículo 210. Focalización de la oferta social.

Para todos los efectos, los programas del Departamento Administrativo para la Prosperidad Social focalizarán a la población que se encuentre en situación de pobreza y pobreza extrema, utilizando el Sisbén.

El Gobierno nacional definirá los lineamientos para la focalización de la población víctima del desplazamiento forzado en los programas sociales a nivel nacional y territorial, utilizando como instrumento de focalización el Sisbén.

La población pobre y pobre extrema tendrá acceso a programas y proyectos ejecutados por las entidades del Estado.

Parágrafo. Para la caracterización e identificación de necesidades en materia socioeconómica de la población víctima de desplazamiento forzado las entidades territoriales utilizarán el Sisbén

Artículo 211. Mesa de equidad.

Créase la Mesa de Equidad como instancia de alto nivel, de carácter estratégico y decisorio, presidida y convocada por el Presidente de la República, con el objetivo de establecer directrices para los sectores y entidades del Gobierno nacional para la aprobación de diseños e implementación de acciones y la destinación de recursos de acuerdo con las prioridades territoriales y poblacionales para la reducción de la pobreza y la pobreza extrema, el seguimiento de las acciones del Gobierno y la rendición de cuentas para asegurar la atención prioritaria a la población en condición de pobreza y pobreza extrema y el cumplimiento de las metas trazadoras en materia de pobreza. La Secretaría Técnica estará a cargo del Departamento Nacional de Planeación y el Departamento Administrativo para la Prosperidad Social. El Gobierno nacional reglamentará el funcionamiento de la Mesa.

Artículo 212. Acompañamiento familiar y social en los programas de vivienda gratuita.

Modifíquese el artículo 15 de la Ley 1537 de 2012 que quedará así:

Artículo 15. Acompañamiento familiar y social en los programas de vivienda gratuita. El Departamento Administrativo para la Prosperidad Social brindará acompañamiento familiar a través de la Estrategia Unidos a los hogares en condición de pobreza que sean beneficiarios de los programas de vivienda gratuita.

El acompañamiento social en los proyectos de vivienda ejecutados en el marco de los programas de vivienda gratuita, en aspectos relacionados con temas de convivencia y el cuidado de las unidades privadas y las áreas comunes será coordinado por el Ministerio de Vivienda, Ciudad y Territorio.

A nivel territorial la estrategia de acompañamiento social deberá ser implementada y ejecutada por los municipios, distritos y distritos especiales, quienes, junto con entidades privadas involucradas en los proyectos, deberán reportar al Ministerio de Vivienda, Ciudad y Territorio la información para el seguimiento al impacto del acompañamiento social en la calidad de vida de la población beneficiaria del Programa de Vivienda Gratuita.

Artículo 213. Apoyo y fortalecimiento a la atención familiar.

Las entidades encargadas de la protección de las familias, en especial aquellas que desarrollan programas y estrategias para la inclusión social, ofrecerán servicios de promoción, prevención, acompañamiento, asistencia y asesoría a las familias en el marco de sus competencias y sujeto a su disponibilidad presupuestal, en línea con lo dispuesto por la Política Pública Nacional de Apoyo y Fortalecimiento a las Familias.

El ICBF a través de sus Centros Zonales prestará el servicio de asistencia y asesoría a las familias con dificultades en sus dinámicas relacionales, brindando atención y orientación para el acceso a su oferta de promoción y prevención.

Parágrafo. La entidad que lidere la implementación de la Política Pública Nacional de Apoyo y Fortalecimiento a las Familias, en articulación con las entidades territoriales y las demás entidades del Gobierno nacional según sus competencias, formulará las orientaciones técnicas para estos servicios.

Artículo 214. Cuentas maestras para servicios de atención del Instituto Colombiano de Bienestar Familiar (ICBF).

Las personas jurídicas o naturales que defina el Instituto Colombiano de Bienestar Familiar (ICBF), de acuerdo a criterios técnicos basados en el volumen de recursos que reciban en el marco de los contratos que suscriban para la ejecución de los objetivos misionales de la entidad, con recursos provenientes del Presupuesto General de la Nación, deberán realizar la apertura de Cuentas Maestras que solo aceptarán operaciones de débito por transferencia electrónica a terceros beneficiarios previamente inscritos de manera formal como receptores de dichos recursos.

Así mismo, las operaciones de crédito que se hagan a estas cuentas maestras deberán realizarse vía electrónica.

La reglamentación asociada con la apertura, registro, y demás operaciones autorizadas en las cuentas maestras, será establecida de conformidad con la metodología que para tal efecto determine el ICBF.

Artículo 215. Subsidio de solidaridad pensional.

Tendrán acceso al Subsidio de la subcuenta de subsistencia del Fondo de Solidaridad Pensional de que trata la Ley 797 de 2003, las personas que dejen de ser madres sustitutas a partir del 24 de noviembre de 2015, que hayan desarrollado la labor por un tiempo no menor de 10 años y que no reúnan los requisitos para acceder a una pensión.

La identificación de las posibles beneficiarias de este subsidio la realizará el Instituto Colombiano de Bienestar Familiar (ICBF), entidad que complementará en una porción que se defina el subsidio a otorgar por parte de la subcuenta de subsistencia del Fondo de Solidaridad Pensional.

Artículo 216. Prevención de la explotación sexual de niñas, niños y adolescentes (ESCNNA).

El Gobierno nacional teniendo como base la Ley 1336 de 2009, implementará un programa de prevención y atención integral para niños, niñas y adolescentes, víctimas de explotación sexual y comercial. El Gobierno nacional en coordinación con las entidades territoriales priorizadas desarrollará una estrategia de asistencia técnica para incluir en los planes de desarrollo de los territorios focalizados, el programa de atención y prevención integral de acuerdo con las dinámicas específicas del territorio.

Artículo 217. Estampilla para el bienestar del adulto mayor.

Modifíquese el artículo 1° de la Ley 687 de 2001, el cual quedará así:

Artículo 1°. Autorízase a las asambleas departamentales y a los concejos distritales y municipales para emitir una estampilla, la cual se llamará Estampilla para el Bienestar del Adulto Mayor, como recurso de obligatorio recaudo para concurrir con las entidades territoriales en la construcción, instalación, mantenimiento, adecuación, dotación y funcionamiento de Centros de Bienestar, Centros de Protección Social, Centros Vida y otras modalidades de atención y desarrollo de programas y servicios sociales dirigidos a las personas adultas mayores, en sus respectivas jurisdicciones. El producto de dichos recursos se destinará en un 70% para la financiación de los Centros Vida y el 30% restante, al financiamiento de los Centros de Bienestar o Centros de Protección Social del adulto mayor, sin perjuicio de los recursos adicionales que puedan gestionarse a través de otras fuentes como el Sistema General de Regalías, el Sistema General de Participaciones, el sector privado y la cooperación internacional, principalmente.

Parágrafo 1°. El recaudo de la estampilla será invertido por la gobernación, alcaldía o distrito en los Centros de Bienestar, Centros de Protección Social, Centro Vida y otras modalidades de atención dirigidas a las personas adultas mayores de su jurisdicción, en proporción directa al número de adultos mayores con puntaje Sisbén menor al corte establecido por el programa y en condición de vulnerabilidad.

Parágrafo 2°. De acuerdo con las necesidades de apoyo social de la población adulto mayor en la entidad territorial, los recursos referidos en el presente artículo podrán destinarse en las distintas modalidades de atención, programas y servicios sociales dirigidos a las personas adultas mayores, siempre que se garantice la atención en condiciones de calidad, frecuencia y número de personas atendidas en los Centros Vida, Centros de Bienestar o Centros de Protección Social, los cuales no deben ser inferiores a las de la vigencia inmediatamente anterior.

Parágrafo 3°. Los departamentos y distritos reportarán semestralmente, conforme lo determine el Ministerio de Salud y Protección Social o la entidad que haga sus veces, la información sobre la implementación de la Estampilla para el Bienestar del Adulto Mayor en su jurisdicción.

Artículo 218. Creación del fondo para el buen vivir y la equidad de los pueblos indígenas de Colombia.

Para apoyar el desarrollo con identidad de los pueblos indígenas de Colombia se crea el Fondo para el buen vivir y la equidad de los pueblos indígenas de Colombia.

La estructura y funcionamiento del Fondo se concertarán entre el Departamento Nacional de Planeación y la organización de la Minga Nacional. Su funcionamiento iniciará en tres (3) meses.

El Fondo contará con las siguientes líneas:

1. Acceso a los derechos territoriales de los Pueblos Indígenas.

2. Emprendimiento y desarrollo económico propio de los Pueblos Indígenas.

3. Fortalecimiento de la institucionalidad de los Pueblos Indígenas de Colombia.

4. Infraestructura y servicios públicos.

5. Empoderamiento de las mujeres, familia y generaciones de los pueblos indígenas.

Los recursos del Fondo estarán constituidos por:

1. Las partidas que se le asignen o incorporen en el presupuesto nacional y los demás recursos que aporte el Gobierno nacional.

2. Los aportes a cualquier título de las entidades territoriales.

3. Recursos provenientes de operaciones de financiamiento interno o externo, que se celebren a nombre del Fondo.

4. Donaciones tanto de origen nacional como internacional con el propósito de desarrollar su objeto.

5. Empréstitos.

6. Demás recursos que obtenga o se le asignen a cualquier título.

El monto inicial del Fondo, será consultado por parte del Director del Departamento Nacional de Planeación al Presidente de la República.

Artículo 219. Trazador presupuestal.

Las entidades estatales del orden nacional conforme a sus competencias identificarán mediante un marcador presupuestal especial, las asignaciones presupuestales para los pueblos indígenas, comunidades negras, afros, raizales, palenqueros y Rrom, con el fin de preparar anualmente un informe de los recursos y los resultados obtenidos en desarrollo de estos pueblos de la vigencia inmediatamente anterior y los recursos apropiados para la vigencia en curso.

Este informe deberá ser presentado a más tardar en el mes de abril de cada año, a las instancias de concertación y consulta de nivel nacional de cada uno de estos pueblos y comunidades.

Artículo 220.Trazador presupuestal para la paz.

Para cada vigencia fiscal, las entidades estatales del orden nacional conforme a sus competencias identificarán mediante un marcador presupuestal especial denominado -Construcción de Paz- las partidas presupuestales tanto de funcionamiento como de inversión, destinadas a cumplir la implementación del Acuerdo de Paz. Esta información deberá conformar el proyecto de Ley del Presupuesto General de la Nación que se presente al Congreso anualmente, durante el tiempo de ejecución del PMI, como un anexo denominado Anexo Gasto Construcción de Paz PGN.

En la elaboración del Plan Operativo Anual de Inversiones que prioriza el Departamento Nacional de Planeación, se identificarán los proyectos de inversión que dispondrán del nuevo trazador presupuestal a que hace referencia el inciso anterior.

El Departamento Nacional de Planeación por su parte deberá garantizar que los proyectos formulados para implementar las acciones con ocasión al Plan Marco de Implementación se encuentren alineados con la implementación de la Hoja de Ruta, sean identificados de igual manera con la denominación Construcción de Paz.

Las Entidades Estatales del orden nacional conforme a sus competencias deberán reportar periódicamente el avance de los indicadores estipulados en el Plan Marco de implementación en el Sistema de Información Integral para el Posconflicto (SIIPO), o el que para estos fines disponga el Gobierno nacional, información que deberá ser pública. La Consejería Presidencial para la Estabilización y Consolidación en articulación con el Departamento Nacional de Planeación estarán a cargo del Sistema.

Artículo 221. Trazador presupuestal para la equidad de la mujer.

El Ministerio de Hacienda y Crédito Público y el Departamento Nacional de Planeación definirá un marcador de la equidad para las mujeres, con el fin de que las entidades que conforman el Presupuesto General de la Nación identifiquen las asignaciones presupuestales para la referida finalidad, preparen y presenten anualmente un informe de los recursos y los resultados obtenidos en la vigencia inmediatamente anterior, así como de los recursos apropiados para la vigencia en curso.

El informe mencionado en el inciso anterior deberá presentarse a más tardar en el mes de abril ante el Congreso de la República. En la elaboración del Plan Operativo Anual de Inversiones que prioriza el Departamento Nacional de Planeación, se identificarán los proyectos de inversión que dispondrán del trazador presupuestal a que hace referencia el inciso anterior.

Artículo 222. Sistema nacional de las mujeres.

Créase el Sistema Nacional de las Mujeres como un conjunto de políticas, instrumentos, componentes y procesos con el fin de incluir en la agenda de las diferentes ramas del poder público los temas prioritarios en materia de avance y garantía de los derechos humanos de las mujeres, con especial énfasis en el impulso de la transversalidad del enfoque de género y étnico para las mujeres en las entidades del orden nacional y en la definición de políticas públicas sobre equidad de género para las mujeres.

El Sistema estará integrado por representantes del Gobierno nacional, la Comisión Legal para la Equidad de la Mujer del Congreso de la República, la Comisión de Género de la Rama Judicial, la Procuraduría General de la Nación y la Defensoría del Pueblo. Podrán asistir como invitados representantes de organismos internacionales, de las secretarías de la mujer del nivel territorial, representantes de la academia y representantes de organizaciones de la sociedad civil que cuenten con conocimiento y experticia sobre los derechos de las mujeres. El sistema también estará integrado por el Observatorio de Asuntos de Género (OAG), a cargo de la Consejería Presidencial para la Equidad de la Mujer, con el fin de que este último suministre a sus integrantes la información cuantitativa y cualitativa relevante para el análisis y discusión en torno a la garantía de derechos de las mujeres.

El Sistema Nacional de las Mujeres dará insumos para la formulación de la Política de Equidad de Género para las Mujeres y realizará seguimiento a la implementación del Plan de acción de dicha política. En la construcción de esta política se hará énfasis en las mujeres rurales teniendo en cuenta un enfoque interseccional.

Así mismo, el Sistema realizará seguimiento a la política pública de cuidado que se construirá bajo la coordinación de la Comisión Intersectorial del Sistema de Cuidado, teniendo en cuenta los enfoques de género e interseccional para el reconocimiento, reducción y redistribución del trabajo doméstico y de cuidado remunerado y no remunerado.

Parágrafo Transitorio. El Departamento Administrativo de la Presidencia de la República, dentro de los tres (3) meses siguientes a la entrada en vigencia de la presente ley, reglamentará el funcionamiento del Sistema.

Artículo 223.Restitución del subsidio y del inmueble objeto del subsidio de arrendamiento.

El presunto incumplimiento de las obligaciones de los beneficiarios del subsidio familiar de vivienda para arrendamiento dará inicio por parte la entidad otorgante, para la revocatoria de la asignación del subsidio y la restitución del inmueble. Para el efecto se aplicará el siguiente procedimiento:

(i) Se citará a audiencia por parte de la entidad otorgante en la que detallarán los hechos, acompañados de las pruebas que sustenten la actuación, enunciando las obligaciones presuntamente incumplidas, así como las consecuencias que podrían derivarse. En la misma citación se establecerá el lugar, fecha y hora para la realización de la audiencia;

(ii) En desarrollo de la audiencia se presentarán los hechos, obligaciones presuntamente incumplidas y los elementos probatorios que dan cuenta del presunto incumplimiento conforme a la citación efectuada. Acto seguido, se concederá el uso de la palabra al beneficiario del subsidio o su representante para que presenten sus descargos, en desarrollo de lo cual, podrá rendir las explicaciones del caso, aportar pruebas y controvertir las presentadas por la entidad.

Agotada la etapa anterior, en la misma audiencia, la entidad procederá a decidir sobre el cumplimiento de las obligaciones del beneficiario del subsidio, la revocatoria del mismo y la restitución del inmueble, mediante resolución motivada, en la que se consigne lo ocurrido en desarrollo de la audiencia y la cual se entenderá notificada en dicho acto público. Contra la decisión así proferida solo procede el recurso de reposición que se interpondrá, sustentará y decidirá en la misma audiencia. La decisión sobre el recurso se entenderá notificada en la misma audiencia.

En cualquier momento del desarrollo de la audiencia, la entidad otorgante podrá suspenderla, de oficio o a petición de parte. En todo caso, al adoptar la decisión de suspensión se señalará fecha y hora para reanudar la audiencia.

A más tardar dentro de los cinco (5) días hábiles siguientes a la ejecutoria del acto administrativo, mediante el cual se revoca el Subsidio Familiar de Vivienda y se ordena la restitución de la tenencia del inmueble arrendado a su propietario, expedido por la entidad otorgante, el hogar beneficiario deberá suscribir el acta de restitución de la vivienda, a través de la cual se deja la constancia de su entrega material, so pena de que se inicien las acciones policivas y/o judiciales a que haya lugar.

La vivienda deberá ser restituida en las mismas condiciones en las que fue entregada, salvo por el deterioro normal por el transcurso del tiempo y el uso legítimo de la misma. A solicitud del hogar, este podrá contar con acompañamiento por parte del Ministerio Público durante el proceso administrativo descrito.

Para efectos del subsidio de vivienda para arrendamiento, no aplica lo establecido en el artículo 16 de la Ley 820 de 2003.

Parágrafo. El procedimiento previsto en este artículo aplicará también para la restitución formal del título de dominio del bien inmueble objeto del subsidio familiar de vivienda 100% en especie.

Artículo 224. Protección contra la pérdida del valor adquisitivo de la moneda.

Modifíquese el artículo 11 de la Ley 432 de 1998, el cual quedará así:

Artículo 11. Protección contra la pérdida del valor adquisitivo de la moneda. El Fondo Nacional de Ahorro reconocerá y abonará en la cuenta individual de cesantías de cada afiliado, como mínimo un interés equivalente a la variación anual de la Unidad de Valor Real (UVR), certificada por el Banco de la República, sobre su saldo acumulado de cesantías a 31 de diciembre del año inmediatamente anterior, y proporcional por la fracción de año que corresponda al momento de retiro, sobre el monto parcial o definitivo de la cesantía pagada.

Para el efecto, los saldos de Cesantías que administre el Fondo Nacional del Ahorro (FNA) se denominarán en UVR y se reexpresarán en pesos de acuerdo con el valor de la UVR, certificado por el Banco de la República, con base en la fecha de consignación de cada una de las fracciones.

Artículo 225. Intereses sobre cesantías.

Modifíquese el artículo 12 de la Ley 432 de 1998, el cual quedará así:

Artículo 12. Intereses sobre cesantías. El Fondo Nacional del Ahorro reconocerá y abonará en la cuenta de cesantías de cada servidor público afiliado, un interés equivalente a la variación anual de la Unidad de Valor Real (UVR), certificada por el Banco de la República, sobre las cesantías liquidadas por la entidad nominadora correspondientes al año inmediatamente anterior o proporcional por la fracción de año que se liquide definitivamente. No obstante, el cálculo del interés tendrá en cuenta las fechas en las que fue consignada cada fracción.

Para el efecto, los saldos que administre el Fondo Nacional del Ahorro por este concepto se denominarán en UVR y se reexpresarán en pesos de acuerdo con el valor de la UVR, certificado por el Banco de la República, con base en la fecha de consignación de cada una de las fracciones.

Parágrafo. El reconocimiento de intereses de que trata el presente artículo no aplicará a los servidores de las entidades públicas empleadoras del orden departamental y municipal, a quienes aplica el régimen establecido en el artículo 99 de la Ley 50 de 1990, en lo relacionado con las fechas de transferencia de cesantías, intereses y demás normas que la reglamenten, modifiquen o sustituyan.

Artículo 226. Fondo de estabilización de precios del café.

Créase el Fondo de Estabilización de Precios del Café como una cuenta especial sin personería jurídica que tendrá por objeto adoptar una variedad de mecanismos técnicamente idóneos para estabilizar el ingreso de los productores de café colombiano y protegerlo de precios extremadamente bajos.

El Congreso de la República definirá su estructura, administración, finalidades, funciones, recursos para su capitalización y funcionamiento, mecanismos y criterios para su reglamentación por parte del Gobierno nacional.

Artículo 227. Subsidio de energía para distritos de riego.

La Nación asignará un monto de recursos destinados a cubrir el valor correspondiente a un porcentaje del cincuenta por ciento (50%) del costo de la energía eléctrica y gas natural que consuman los distritos de riego que utilicen equipos electromecánicos para su operación debidamente comprobado por las empresas prestadoras del servicio respectivo, de los usuarios de los distritos de riego y de los distritos de riego administrados por el Estado o por las Asociaciones de Usuarios debidamente reconocidos por el Ministerio de Agricultura y Desarrollo Rural.

Parágrafo 1°. Para el caso de los usuarios de riego cuya facturación sea individual, este beneficio se otorgará solo para aquellos que no posean más de cincuenta (50) hectáreas.

Parágrafo 2°. Para efectos de la clasificación de los usuarios del servicio de energía eléctrica y gas natural, según la Ley 142 de 1994, la utilización de estos servicios para el riego dirigido a la producción agropecuaria se clasificará dentro de la clase especial, la cual no pagará contribución. Además, con el objeto de comercializar la energía eléctrica y el gas natural, los usuarios de los distritos de riego, se clasificarán como usuarios no regulados.

Parágrafo 3°. El subsidio aquí descrito tendrá vigencia a partir del 1° de enero del año 2019.

Artículo 228. Tarifa diferencial a pequeños productores rurales.

La Nación asignará un monto de recursos destinados a cubrir el valor correspondiente a un porcentaje del cincuenta por ciento (50%) del costo de la energía eléctrica y de gas que consuman las asociaciones de pequeños productores del campo, que utilicen equipos electromecánicos o de refrigeración, para su operación debidamente comprobado por las empresas prestadoras del servicio respectivo. Las asociaciones de pequeños productores deberán realizar la inscripción ante las secretarías departamentales de agricultura o quien haga sus veces y esta información será verificada por el Ministerio de Agricultura y Desarrollo Rural.

Parágrafo 1°. Se entenderá por asociaciones de pequeños productores del campo, quienes posean activos totales no superiores a los doscientos ochenta y cuatro (284) SMMLV, en el momento de la solicitud del subsidio, el valor de la tierra no será computable dentro de los activos totales. El Gobierno nacional reglamentará la materia.

Parágrafo 2°. Quienes hayan accedido al subsidio de energía y gas, no podrán ser beneficiarios del subsidio consagrado en el presente artículo. A menos de que renuncien al anterior subsidio.

Parágrafo 3°. El Gobierno nacional reglamentará la materia en un término no mayor de seis (6) meses a partir de la vigencia de la presente Ley.

Artículo 229. Calificación diferenciada en compras públicas de alimentos.

Las entidades públicas descentralizadas del orden nacional y las entidades territoriales cada vez que requieran productos de origen agropecuario para atender la demanda de los programas institucionales de servicios de alimentación deberán establecer en sus pliegos de condiciones puntajes adicionales y estrategias de ponderación que mejoren las calificaciones de los proponentes cuando presenten contratos de proveeduría suscritos con productores nacionales. El Gobierno nacional en un plazo máximo de no más de tres (3) meses establecerá el esquema de puntajes adicionales, previo análisis de la Agencia de Contratación Colombia Compra Eficiente.

Sin perjuicio de lo anterior, las entidades públicas contratantes deberán adquirir hasta el cuarenta por ciento (40%) de alimentos procesados o sin procesar, en donde los insumos y los productos hayan sido adquiridos de productores agropecuarios locales.

Adicionalmente, podrá establecerse un diez por ciento (10%) de puntaje adicional, a los proveedores que realicen el suministro que se pretenda contratar vinculando pequeños productores.

Parágrafo 1°. Para garantizar el derecho a la igualdad de los pequeños productores, los contratos de proveeduría que se presenten respecto de ellos podrán ser individuales u organizados bajo cualquier esquema asociativo registrado ante las Secretarías de Agricultura de sus respectivas entidades territoriales.

Parágrafo 2°. El Ministerio de Agricultura y Desarrollo Rural en coordinación con Colombia Compra Eficiente desarrollará al menos una guía que será publicada en los sitios web de ambas entidades, en el marco de las estrategias de política definidas por la Cartera del Sector Agricultura y Desarrollo Rural, que incluirán aproximaciones teóricas, estadísticas o funcionales del concepto de “pequeño productor” y de lo que se puede considerar “esquema asociativo de pequeños productores”.

Artículo 230. Bienes que se encuentran exentos del impuesto.

Adiciónese al artículo 477 del Estatuto Tributario el siguiente bien que tendrá la naturaleza de exento para efectos del impuesto sobre las ventas:

10.06 Arroz para consumo humano (excepto el arroz con cáscara o “Arroz Paddy” de la partida 10.06.10.90.00 y el arroz para la siembra de la partida 10.06.10.10.00, los cuales conservan la calidad de bienes excluidos del IVA)”.

SUBSECCIÓN 4. EQUIDAD EN LA SALUD

Artículo 231. Competencias en salud por parte de la Nación.

Adiciónese el numeral 42.24 al artículo 42 de la Ley 715 de 2001, así:

42.24. Financiar, verificar, controlar y pagar servicios y tecnologías en salud no financiadas con cargo a la Unidad de Pago por Capitación (UPC) en el Sistema General de Seguridad Social en Salud. La verificación, control y pago de las cuentas que soportan los servicios y tecnologías de salud no financiados con recursos de la UPC de los afiliados al Régimen Subsidiado prestados a partir del 1° de enero de 2020 y siguientes, estará a cargo de la Administradora de los Recursos del Sistema de Seguridad Social en Salud (ADRES), de conformidad con los lineamientos que para el efecto expida el Ministerio de Salud y Protección Social.

 Artículo 232. Competencias de los departamentos en la prestación de Servicios de Salud..

Adiciónense los siguientes numerales al artículo 43 de la Ley 715 de 2001, así:

43.2.9. Garantizar la contratación y el seguimiento del subsidio a la oferta, entendido como la cofinanciación de la operación de la prestación de servicios y tecnologías efectuada en zonas alejadas o de difícil acceso, a través de instituciones públicas o infraestructura pública administrada por terceros ubicadas en esas zonas, que sean monopolio en servicios trazadores y no sostenibles por venta de servicios, de conformidad con los criterios establecidos por el Gobierno nacional. Los subsidios a la oferta se financiarán con recursos del Sistema General de Participaciones y con los recursos propios de la entidad territorial.

43.2.10. Realizar la verificación, control y pago de los servicios y tecnologías no financiados con cargo a la UPC de los afiliados al régimen subsidiado de su jurisdicción, prestados hasta el 31 de diciembre de 2019.

43.2.11. Ejecutar los recursos que asigne el Gobierno nacional para la atención de la población migrante y destinar recursos propios, si lo considera pertinente.

Artículo 233. Destinación y distribución de los recursos del Sistema General de Participaciones para la Salud

Modifíquese el artículo 47 de la Ley 715 de 2001, el cual quedará así:

Artículo 47. Distribución de los recursos del sistema general de participaciones. Los recursos del Sistema General en Participaciones en Salud se destinarán y distribuirán en los siguientes componentes:

1. El 87% para el componente de aseguramiento en salud de los afiliados al Régimen Subsidiado.

2. El 10% para el componente de salud pública y el 3% para el subsidio a la oferta.

Parágrafo 1°. La información utilizada para determinar la asignación de los recursos será suministrada por el Departamento Administrativo Nacional de Estadística (DANE); el Ministerio de Salud y Protección Social; el Departamento Nacional de Planeación (DNP); el Instituto Geográfico Agustín Codazzi (IGAC), conforme a la que generen en ejercicio de sus competencias y acorde con la reglamentación que se expida para el efecto.

Parágrafo 2°. Los recursos destinados a salud pública que no se comprometan al cierre de cada vigencia fiscal, se utilizarán para cofinanciar los programas de interés en salud pública de que trata el numeral 13 del artículo 42 de la Ley 715 de 2001, o las normas que las sustituyan, modifiquen o adicionen.

 Artículo 234. Distribución de los recursos de aseguramiento en salud.

Modifíquese el artículo 48 de la Ley 715 de 2001, el cual quedará así:

Artículo 48.Distribución de los recursos de aseguramiento en salud. Los recursos del Sistema General de Participaciones destinados al componente de aseguramiento en salud del régimen subsidiado serán asignados a distritos, municipios y áreas no municipalizadas así:

Los recursos de este componente se dividirán por el total de la población pobre afiliada al régimen subsidiado en el país en la vigencia anterior, con el fin de estimar un per cápita nacional. El valor per cápita resultante se multiplicará por la población pobre afiliada al régimen subsidiado en cada ente territorial. La población afiliada para los efectos del presente cálculo será la del año anterior a aquel para el cual se realiza la distribución. El resultado será la cuantía que corresponderá a cada distrito, municipio o áreas no municipalizadas de los departamentos.

La población pobre afiliada al régimen subsidiado de las áreas no municipalizadas de los departamentos de Amazonas, Guainía y Vaupés hará parte del cálculo de los recursos del departamento estos serán asignados sin situación de fondos.

Artículo 235. Distribución de los recursos del componente de Salud Pública y subsidios a la oferta

Modifíquese el artículo 52 de la Ley 715 de 2001, el cual quedará así:

Artículo 52. Distribución de los recursos del componente de salud pública y de subsidio de oferta. Este componente comprende dos subcomponentes: el de acciones de salud pública y el de subsidio a la oferta. Los recursos correspondientes a estos subcomponentes se distribuirán así:

52.1 El subcomponente de Acciones de Salud Pública, se distribuirá a cada entidad territorial de acuerdo al resultado de la sumatoria de los siguientes criterios: población, porcentaje de pobreza de cada entidad territorial, ruralidad, densidad poblacional y eficiencia administrativa. Se entenderá como eficiencia administrativa el mayor o menor cumplimiento en metas prioritarias de salud pública, medidas por indicadores trazadores.

Los departamentos recibirán el 45% de los recursos destinados a este subcomponente para financiar las acciones de salud pública de su competencia, la operación y mantenimiento de los laboratorios de salud pública y el 100% de los asignados a las áreas no municipalizadas. Los municipios y distritos recibirán el 55% de los recursos asignados a este componente, con excepción del Distrito Capital que recibirá el 100%.

El Ministerio de Salud y Protección Social deberá diseñar e implementar los sistemas de monitoreo que den cuenta del uso eficiente de los recursos y los resultados en salud, acorde con las acciones de salud pública priorizadas. Para lo cual los departamentos, distritos y municipios deberán reportar la información que corresponda.

Los departamentos, distritos y municipios podrán establecer convenios de asociación para la ejecución de los recursos, en función de los planes territoriales de salud pública de intervenciones colectivas, en especial los objetivos y metas priorizadas en el respectivo territorio.

52.2 El subcomponente de Subsidio a la Oferta se define como una asignación de recursos para concurrir en la financiación de la operación de la prestación de servicios y tecnologías efectuadas por instituciones públicas o infraestructura pública administrada por terceros, ubicadas en zonas alejadas o de difícil acceso que sean monopolio en servicios trazadores y no sostenibles por venta de servicios.

Los recursos para financiar este subcomponente se distribuirán entre los municipios y distritos certificados y los departamentos con instituciones de prestación de servicios de que trata el inciso anterior, de conformidad con los siguientes criterios: población total, porcentaje de pobreza de cada entidad territorial, ruralidad y densidad poblacional.

Artículo 236. Pago de servicios y tecnologías de usuarios no afiliados.

Con el propósito de lograr la cobertura universal del aseguramiento, cuando una persona requiera la prestación de servicios de salud y no esté afiliada al Sistema General de Seguridad Social en Salud, la entidad territorial competente, en coordinación con las Entidades Promotoras de Salud (EPS) y con las Instituciones Prestadoras de Servicios de Salud (IPS) públicas o privadas afiliarán a estas personas al régimen de salud que corresponda, teniendo en cuenta su capacidad de pago; lo anterior de conformidad con los lineamientos que para el efecto se expidan.

Los gastos en salud que se deriven de la atención a población pobre que no haya surtido el proceso de afiliación definido en el presente artículo, serán asumidos por las entidades territoriales.

Artículo 237. Sostenibilidad financiera del Sistema General de Seguridad Social en Salud

Con el fin de contribuir a la sostenibilidad financiera del Sistema General de Seguridad Social en Salud (SGSSS), el Gobierno nacional definirá los criterios y los plazos para la estructuración, operación y seguimiento del saneamiento definitivo de las cuentas de recobro relacionadas con los servicios y tecnologías de salud no financiados con cargo a la UPC del régimen contributivo. Los servicios y tecnologías en salud objeto de este saneamiento deben cumplir los siguientes requisitos:

a) Que hayan sido prestados con anterioridad a la entrada en vigor de la presente Ley.

b) Que en los eventos en que se hubieren prestado con posterioridad a la entrada en vigencia de la Ley 1753 de 2015, la solicitud de pago se haya presentado dentro de los términos a que hace referencia el artículo 73 de la Ley 1753 de 2015.

c) Que la obligación derivada de la prestación del servicio o tecnología no se encuentre afectada por caducidad y/o prescripción.

d) Que hayan sido prescritos a quien le asistía el derecho, por un profesional de la salud o mediante un fallo de tutela, facturadas por el prestador o proveedor y suministradas al usuario. Para demostrar el cumplimiento de este requisito se podrán utilizar los medios de prueba establecidos en el Código General del Proceso que sean conducentes y pertinentes para acreditar la efectiva prestación del servicio, de acuerdo a la reglamentación que emita el Ministerio de Salud y Protección Social.

e) Que no se trate de insumos que no observen el principio de integralidad.

f) Que no se trate de recobros involucrados en investigación por la Contraloría General de la República, la Fiscalía General de la Nación y/o la Superintendencia Nacional de Salud.

g) Que no correspondan a uno de los criterios definidos en el artículo 15 de la Ley 1751 de 2015.

Las cuentas de recobro que cumplan los requisitos enlistados podrán ser objeto de reconocimiento y pago por parte de la Administradora de los Recursos de Sistema de Seguridad Social en Salud (ADRES), una vez se cumplan las siguientes condiciones:

1. Como requisito indispensable la entidad recobrante y la ADRES suscriban un contrato de transacción en el que la primera se obligue como mínimo a:

1.1 Aceptar los resultados producto del proceso de auditoría;

1.2 Renunciar a instaurar o desistir de cualquier acción judicial o administrativa relacionada con la solicitud de pago elevada;

1.3 Renunciar expresamente al cobro de cualquier tipo de interés y otros gastos, independientemente de su denominación sobre las cuentas presentadas, al momento de radicarlas por este mecanismo;

1.4 No celebrar negocio jurídico alguno asociado a los valores que se reconozcan;

1.5 Revelar y depurar en sus estados financieros los resultados del proceso de verificación y control.

2. La entidad interesada deberá someter las cuentas objeto de la solicitud a un proceso de auditoría. En ningún caso las actuaciones que se cumplan para efectos de lo ordenado en el presente artículo interrumpen, suspenden, o reviven los términos de prescripción. Las condiciones, metodología detallada y tablas de referencia en que se realizará dicha auditoría deberán ser informadas a las entidades interesadas de forma previa a la firma del contrato de transacción. Los costos de esta auditoría deberán ser sufragados por la entidad recobrante. El Ministerio de Salud y Protección Social fijará los términos y condiciones para el cumplimiento de esta obligación.

3. El monto a pagar por servicios y tecnologías de salud no financiadas con cargo a la UPC que resulten aprobados en el proceso de auditoría, serán reconocidos conforme a la metodología de valores que para el efecto defina el Ministerio de Salud y Protección Social.

4. La ADRES compensará los valores que resulten a favor de las EPS o IPS con las obligaciones que la entidad le adeude como producto del proceso de reintegro de recursos.

5. La ADRES aprobará los valores a pagar a la entidad recobrante.

Para financiar los valores aprobados por este mecanismo y las deudas reconocidas en el proceso liquidatario de Caprecom y los contratos de salud del Fomag liquidados en la vigencia 2019, serán reconocidos como deuda pública y podrán ser pagadas con cargo al servicio de deuda pública del Presupuesto General de la Nación o mediante operaciones de crédito público. De atenderse con operaciones de crédito público, la Dirección General de Crédito Público y Tesoro Nacional del Ministerio de Hacienda y Crédito Público administrará, en una cuenta independiente, el cupo de emisión de deuda que se destine a la atención de las obligaciones de pago originadas en este artículo. Las operaciones de crédito público no implican operación presupuestal y solo deberá presupuestarse para efectos de su redención y pago de intereses. Para los efectos previstos en este inciso la Dirección General de Crédito Público y Tesoro Nacional estará facultada para realizar las operaciones necesarias en el mercado monetario y de deuda pública.

Parágrafo 1°. La ADRES podrá adelantar directamente o contratar con un tercero la auditoría del presente artículo, contrato en el cual se entenderán incluidas las cláusulas excepcionales establecidas en la Ley 80 de 1993.

Parágrafo 2°. El resultado del saneamiento de que trata el presente artículo deberá reflejarse en los estados financieros de las entidades involucradas, dando cumplimiento a las normas de contabilidad, de información financiera y demás instrucciones vigentes sobre la materia, de tal forma que los estados financieros reflejen la realidad económica de estas entidades. La Superintendencia Nacional de Salud implementará un sistema de seguimiento que permita que el saneamiento se vea reflejado en los estados financieros de las Entidades Promotoras de Salud (EPS) y de las Instituciones Prestadoras de Servicios (IPS). Los responsables de las Instituciones Prestadoras de Servicios de Salud públicas que en el marco de este mecanismo apliquen lo dispuesto en el presente Parágrafo, no incurrirán en falta disciplinaria, fiscal o penal.

El incumplimiento de esta obligación dará lugar a las sanciones contenidas en la Ley 1949 de 2019. Los representantes legales, administradores, contadores y revisores fiscales que ordenen, toleren, hagan o encubran falsedades en los balances, incurrirán en las sanciones previstas en la Ley 599 de 2000, así como fraudes y los demás relacionados que se configuren de acuerdo a su ocurrencia.

Parágrafo 3°. Para el pago de los servicios y tecnologías no financiados con recursos de la UPC indicados en el literal c del artículo 73 de la Ley 1753 de 2015, podrán ser reconocidos con cargo a los instrumentos de deuda pública definidos en el presente artículo.

Parágrafo 4°. Los beneficiarios de este mecanismo cederán su titularidad, cuando tengan deudas asociadas a la prestación de servicios y tecnologías no financiados con la UPC del régimen contributivo, a los agentes del Sistema General de Seguridad Social en Salud (SGSSS) que hayan prestado o suministrado dichos servicios, tales como las Instituciones Prestadoras de Servicios de Salud, quienes a su vez priorizarán las deudas laborales, en caso de tenerlas. Como requisito para la cesión de su titularidad las EPS deberán acreditar haber surtido la conciliación de las cuentas a pagar.

Parágrafo 5°. Las decisiones judiciales que ordenen el pago de recobros distintos se indexarán utilizando el Índice de Precios al Consumidor (IPC), sin lugar a intereses de mora.

Parágrafo 6°. Para el trámite de presentación, registro, aprobación o reconocimiento de valores recobrados mediante factura o cualquier documento que soporte el cobro por este mecanismo, se tendrá en cuenta lo dispuesto en la Ley 599 de 2000 en términos de configuración de conductas relacionadas con la comisión de falsedades, inconsistencias, adulteraciones o cualquier situación fraudulenta o irregular constitutiva de una sanción penal, y serán puestas en conocimiento de la autoridad competente por parte de la persona que lo conozca.

Parágrafo 7. Cuando la entidad recobrante no tenga deudas por concepto de servicios y tecnologías no financiados con cargo a la Unidad de Pago por Capitación -UPC-, podrá solicitar a la Administradora de los Recursos del Sistema General de Seguridad Social en Salud -ADRES, que los recursos aprobados en el marco de este artículo, se giren directamente a los prestadores de servicios, proveedores u otros acreedores con los que tengan cuentas pendientes derivadas de servicios de salud.

Parágrafo 8. Los recursos aprobados en el marco del saneamiento de que trata este artículo, podrán ser descontados por la Administradora de los Recursos del Sistema General de Seguridad Social en Salud -ADRES para el pago de los valores adeudados por las entidades recobrantes por concepto de los mecanismos definidos en el artículo 9 de la Ley 1608 de 2013, así como el monto pendiente por reintegrar cuando el valor aprobado en la auditoría haya sido menor al giro previo realizado.

Parágrafo 9. Durante el término de la emergencia sanitaria declarada por el Ministerio de Salud y Protección Social, las entidades recobrantes y la Administradora de los Recursos del Sistema General de Seguridad Social en Salud -ADRES-podrán suscribir acuerdos de pago parcial para el reconocimiento anticipado del 25% del valor de las solicitudes de recobro que cumplan los requisitos establecidos en el numeral 1 del presente artículo.

El valor de los acuerdos de pago será girado, directamente a los prestadores y proveedores de servicios y tecnologías de salud, reportados previamente por las entidades recobrantes. Los proveedores y prestadores de servicios y tecnologías de salud, con esos recursos, priorizarán el pago de salarios, prestaciones económicas y demás obligaciones contractuales con el personal médico, asistencial y de apoyo.

Los acuerdos de pago deberán contener como mínimo (i) el valor del anticipo aprobado; (ii) la obligación de las entidades recobrantes de completar a satisfacción de la Administradora de los Recursos del Sistema General de Seguridad Social en Salud -ADRES-los procesos de auditoría descritos en el numeral 2 del presente artículo; y (iii) la obligación de las entidades recobrantes de celebrar el contrato de transacción previsto en el numeral 1 de este artículo. El incumplimiento de las anteriores condiciones, obliga a las entidades recobrantes a reintegrar a la Administradora de los Recursos del Sistema General de Seguridad Social en Salud -ADRES-los recursos girados por concepto de acuerdo de pago dentro de los cinco (5) días siguientes al requerimiento hecho por dicha entidad. Estos acuerdos se registrarán como un pasivo en la contabilidad de la Administradora de los Recursos del Sistema General de Seguridad Social en Salud -ADRES-.

Si luego de realizada la auditoría correspondiente el monto del anticipo supera el valor aprobado, la Administradora de los Recursos del Sistema General de Seguridad Social en Salud -Adres realizará el descuento que corresponda, de aquellos valores que la Adres deba pagar a la entidad recobrante por cualquier concepto.

Artículo 238. Saneamiento financiero del sector salud en las entidades territoriales

Para efectos de lograr el saneamiento definitivo de las cuentas de servicios y tecnologías en salud no financiadas por la UPC del régimen subsidiado prestados hasta el 31 de diciembre de 2019, deberán cumplirse las siguientes reglas:

1. Para determinar las deudas por servicios y tecnologías en salud no financiadas con cargo a la UPC de los afiliados al régimen subsidiado, la entidad territorial deberá adelantar el proceso de auditoría que le permita determinar si es procedente el pago.

En este proceso la entidad territorial verificará que los servicios y tecnologías en salud no financiados con cargo a la UPC hayan sido prescritas por parte de un profesional de la salud u ordenados mediante un fallo de tutela facturadas por el prestador o proveedor y suministradas al usuario, para lo cual deberán acogerse a la reglamentación que expida el Ministerio de Salud y Protección Social en virtud del literal d) del artículo anterior.

Las entidades territoriales deberán adoptar lo dispuesto por la Nación para el proceso de auditoría y posterior pago de los servicios y tecnologías en salud no financiadas con cargo a la UPC del régimen contributivo.

2. No serán objeto de saneamiento las obligaciones caducadas o prescritas, aquellas que correspondan a insumos recobrados sin observancia del principio de integralidad, los cobros o recobros que se encuentren involucrados en investigación por la Contraloría General de la República, la Fiscalía General de la Nación y/o la Superintendencia Nacional de Salud o sus referentes territoriales, ni los servicios y tecnologías en salud en los que se advierta alguno de los criterios definidos en el artículo 15 de la Ley 1751 de 2015.

3. Las entidades territoriales podrán disponer de las siguientes fuentes de financiación: rentas cedidas, excedentes de las rentas cedidas, saldos de las cuentas maestras del régimen subsidiado en salud, excedentes del Sistema General de Participaciones de Salud Pública, excedentes y saldos no comprometidos con destino a la prestación de servicios en lo no cubierto con subsidios a la demanda del Sistema General de Participaciones, los recursos de transferencias realizadas por el Ministerio de Salud y Protección Social con cargo a los recursos del Fondo de Solidaridad y Garantías (Fosyga) de vigencias anteriores y los excedentes del Fondo Nacional de Pensiones de las Entidades Territoriales (Fonpet) del sector salud financiados con Lotto en línea, sin perjuicio de los usos ya definidos en la ley y del Sistema General de Regalías cuando lo estimen pertinente.

4. La entidad territorial creará un fondo al cual deberá transferir los recursos mencionados en el anterior numeral para financiar las obligaciones de que trata el presente artículo.

5. La entidad territorial deberá ajustar su Marco Fiscal de Mediano Plazo en el curso de la vigencia 2019, en lo referente a la propuesta de ingresos y gastos requerido para dar cumplimiento al saneamiento de las deudas por servicios y tecnologías en salud no financiadas con cargo a la UPC del régimen subsidiado.

6. Cuando se trate de servicios y tecnologías en salud prestados con anterioridad a la entrada en vigencia de la Resolución 1479 de 2015 del Ministerio de Salud y Protección Social, los recobros por dichos servicios y tecnologías deberán ser radicadas por la Entidad Promotora de Salud ante la entidad territorial, siempre y cuando no hayan prescrito ni caducado, para lo cual tendrán un plazo máximo de nueve (9) meses a partir de la entrada en vigencia de la presente Ley.

7. Cuando se trate de servicios prestados con posterioridad a la entrada en vigencia de la Resolución 1479 de 2015 del Ministerio de Salud y Protección Social, los cobros por servicios y tecnologías no financiados con cargo a la UPC deberán reconocerse a través de los modelos establecidos en el capítulo I y II de la mencionada resolución. Para ello, las Entidades Promotoras de Salud tendrán que trasladar todas las facturas a la entidad territorial, antes del 31 de diciembre de 2019, so pena de entenderse subrogadas en la posición de la entidad territorial.

8. Los servicios y tecnologías no financiados con cargo a la UPC prestados con posterioridad a la entrada en vigencia de la presente Ley y hasta el 31 de diciembre de 2019, deberán ser cobrados o recobrados a las entidades territoriales dentro de los seis (6) meses siguientes a su prestación. De lo contrario, no podrán ser objeto del saneamiento dispuesto en este artículo.

Cumplidas las reglas señaladas en los numerales anteriores, la entidad territorial procederá a suscribir los acuerdos de pago con las EPS e IPS de acuerdo con la disponibilidad de recursos del fondo constituido según lo dispuesto en los numerales 3 y 4 de este artículo.

La Nación podrá cofinanciar el pago de las deudas de los servicios y tecnologías en salud no financiadas con cargo a la UPC del régimen subsidiado que agoten el procedimiento descrito en este artículo, siempre y cuando se cumplan las siguientes condiciones:

a) Que se hayan agotado las fuentes de financiación con las que cuenta la entidad territorial para el pago de estas obligaciones. Para el efecto el Ministerio de Hacienda y Crédito Público, con el apoyo del Ministerio de Salud y Protección Social y del Departamento Nacional de Planeación, evaluará el esfuerzo fiscal de las entidades territoriales para el pago de estos pasivos y definirá el monto a financiar premiando a aquellas que hayan realizado mayores esfuerzos.

b) Que la entidad territorial suscriba un contrato de transacción con la entidad acreedora que incluya como mínimo:

i) La renuncia expresa de la entidad que esté realizando el cobro o recobro a instaurar o desistir de cualquier acción judicial o administrativa relacionada con la solicitud de pago elevada.

ii) La obligación de la entidad territorial y la entidad que está realizando el recobro de revelar y depurar en sus estados financieros los resultados del proceso de verificación y control.

iii) La renuncia expresa de la entidad que esté realizando el cobro o recobro a cualquier tipo de interés y otros gastos, independientemente de su denominación sobre las cuentas presentadas, al momento de radicarlas por este mecanismo.

c) Que el representante legal de la Entidad Territorial certifique los montos resultantes. El Gobierno nacional podrá remitir los resultados de las auditorías a los organismos de control para lo de su competencia.

Para cofinanciar el pago de las deudas de los servicios y tecnologías en salud no financiadas con cargo a la Unidad de Pago por Capitación -UPC- del régimen subsidiado, autorícese al Gobierno nacional a realizar operaciones de crédito en las vigencias 2020 y 2021. La Dirección General de Crédito Público y Tesoro Nacional del Ministerio de Hacienda y Crédito Público, administrará, en una cuenta independiente, el cupo de emisión de deuda que se destine a la atención de las obligaciones de pago originadas en este artículo. Para los efectos previstos en este inciso, la Dirección General de Crédito Público y Tesoro Nacional estará facultada para realizar las operaciones necesarias en el mercado monetario y de deuda pública. Las operaciones de crédito público no implican operación presupuestal y solo deberá presupuestarse para efectos de su redención y pago de intereses. El Gobierno nacional reglamentará los términos y condiciones en ros cuales operará la cofinanciación de la Nación.

Parágrafo 1°. Los servicios y tecnologías en salud no financiadas con cargo a la UPC que resulten aprobados mediante lo definido en el presente artículo no podrán exceder el valor máximo definido por el Gobierno nacional.

Parágrafo 2°. El resultado de los procesos de saneamiento de que trata el presente artículo deberá reflejarse en los estados financieros de las entidades involucradas, dando cumplimiento a las normas de contabilidad, de información financiera y demás instrucciones vigentes sobre la materia, de tal forma que los estados financieros reflejen la realidad económica de estas entidades. La Superintendencia Nacional de Salud implementará un sistema de seguimiento que permita que el saneamiento se refleje en los estados financieros de las EPS y de las IPS.

El incumplimiento de esta obligación dará lugar a las sanciones contenidas en la Ley 1949 de 2019. Los representantes legales, administradores, contadores y revisores fiscales que ordenen, toleren, hagan o encubran falsedades cometidas en los balances, incurrirán en las sanciones previstas en la Ley 599 de 2000, así como fraudes y los demás relacionados que se configuren de acuerdo con su ocurrencia.

Parágrafo 3°. Los beneficiarios, a través de los instrumentos de crédito público, cederán su titularidad, cuando tengan deudas asociadas a la prestación de servicios y tecnologías no financiados con la UPC del régimen subsidiado, a los agentes del Sistema General de Seguridad Social en Salud (SGSSS) que hayan prestado o suministrado dichos servicios, tales como las Instituciones Prestadoras de Servicios de Salud, quienes a su vez priorizarán las deudas laborales, en caso de tenerlas. Como requisito para la cesión de su titularidad, las EPS deberán acreditar haber surtido la conciliación de las cuentas a pagar.

Parágrafo 4°. Los responsables de las Instituciones Prestadoras de Servicios de Salud públicas que en el marco de este mecanismo apliquen lo dispuesto en el presente artículo, no incurrirán en falta disciplinaria, fiscal o penal.

Parágrafo 5°. Para el trámite de presentación, registro, aprobación o reconocimiento de valores del cobro o recobro mediante factura o cualquier documento que soporte el cobro por este mecanismo, se tendrá en cuenta lo dispuesto en Ley 599 de 2000 en términos de configuración de conductas relacionadas con la comisión de falsedades, inconsistencias, adulteraciones o cualquier situación fraudulenta o irregular constitutiva de una sanción penal, y serán puestas en conocimiento de la autoridad competente por parte de la persona que lo conozca.

Parágrafo 6. Durante el término de la emergencia sanitaria declarada por el Ministerio de Salud y Protección Social, suspéndase el plazo dispuesto en el numeral 8 del presente artículo.  El término se reanudará a partir del día hábil siguiente a su culminación.

Artículo 239. Giro Directo

La Administradora de los Recursos del Sistema General de Seguridad Social en Salud (ADRES) en nombre de las Entidades Promotoras de Salud y demás Entidades Obligadas a Compensar, realizará el giro directo de los recursos de las Unidades de Pago por Capitación (UPC) de los regímenes contributivo y subsidiado destinadas a la prestación de servicios de salud, a todas las instituciones y entidades que presten dichos servicios y que provean tecnologías incluidas en el plan de beneficios, así como a los proveedores, de conformidad con los porcentajes y condiciones que defina el Ministerio de Salud y Protección Social. También aplicará transitoriamente el giro directo de los recursos asociados al pago de los servicios y tecnologías de salud no financiados con recursos de la UPC para los regímenes contributivo y subsidiado, según lo dispuesto en el presente artículo.

Parágrafo 1°. La información de este mecanismo será de consulta pública.

Parágrafo 2°. Sin perjuicio de las funciones de Inspección, Vigilancia y Control de la Superintendencia Nacional de Salud, el Ministerio de Salud y Protección Social realizará el seguimiento permanente a la oportunidad del giro de los recursos, así como a su programación, destinación y ejecución por las Entidades Administradoras de Planes de Beneficios, instituciones prestadoras y proveedores de tecnologías en salud, últimos responsables de estos procesos.

Parágrafo 3°. Lo dispuesto en el presente artículo en lo referente a los servicios y tecnologías no financiadas con cargo a la UPC del régimen subsidiado comenzará a operar a partir del 1° de enero de 2020.

Parágrafo 4°. No estarán sujetas a lo dispuesto en este artículo las EPS adaptadas del Estado y aquellas que en su desempeño financiero cumplan con el patrimonio adecuado.

Artículo 240. Eficiencia del gasto asociado a la prestación del servicio y tecnologías no financiados con cargo a los recursos de la UPC.

Los servicios y tecnologías en salud no financiados con cargo a los recursos de la UPC serán gestionados por las EPS quienes los financiarán con cargo al techo o presupuesto máximo que les transfiera para tal efecto la Administradora de los Recursos del Sistema General de Seguridad Social en Salud (ADRES). El techo o presupuesto máximo anual por EPS se establecerá de acuerdo a la metodología que defina el Ministerio de Salud y Protección Social, la cual considerará incentivos al uso eficiente de los recursos. En ningún caso, el cumplimiento del techo por parte de las EPS deberá afectar la prestación del servicio. Lo anterior, sin perjuicio del mecanismo de negociación centralizada contemplado en el artículo 71 de la Ley 1753 de 2015.

En todo caso, las Entidades Promotoras de Salud (EPS) considerarán la regulación de precios, aplicarán los valores máximos por tecnología o servicio que defina el Ministerio de Salud y Protección Social y remitirán la información que este requiera. La ADRES ajustará sus procesos administrativos, operativos, de verificación, control y auditoría para efectos de implementar lo previsto en este artículo.

Parágrafo. Las EPS podrán implementar mecanismos financieros y de seguros para mitigar el riesgo asociado a la gestión de los servicios y tecnologías no financiados con cargo a los recursos de la UPC.

Artículo 241. Incentivos a la calidad y los resultados en salud.

El Ministerio de Salud y Protección Social diseñará e implementará un mecanismo de pago por resultados en salud, el cual tendrá como mínimo un sistema de información, seguimiento y monitoreo basado en indicadores trazadores.

Para efecto de lo dispuesto en este artículo, la Administradora de los recursos del Sistema General de Seguridad Social en Salud (ADRES), podrá girar los recursos que se determinen por este mecanismo a las Instituciones Prestadoras de Salud (IPS), en función de los resultados en salud que certifique la EPS.

Los recursos destinados para el mecanismo de pago por resultado, serán los equivalentes a los asignados en cumplimiento del artículo 222 de la Ley 100 de 1993 a la entrada en vigencia de la presente Ley. El Ministerio de Salud y Protección Social establecerá la variación de estos recursos, que en todo caso deberán tener en cuenta la suficiencia de la UPC.

Adicionalmente se establecerán incentivos de reconocimiento social y empresarial por resultados con calidad para las IPS del Sistema de Salud u otros actores del Sistema de Seguridad Social en Salud.

El Ministerio de Salud y Protección Social podrá con cargo a los recursos del mecanismo, contratar a un tercero independiente que evalúe el cumplimiento de dichos resultados.

  Artículo 242. Solidaridad en el Sistema de Salud.

Los afiliados al Régimen Subsidiado en el Sistema General de Seguridad Social en Salud son las personas sin capacidad de pago para cubrir el monto total de la cotización. La población que sea clasificada como pobre o vulnerable según el Sistema de Identificación de Potenciales Beneficiarios de Programas Sociales (Sisbén), recibirá subsidio pleno y por tanto no deberá contribuir. Los afiliados al Régimen Subsidiado de salud que, de acuerdo al Sisbén, sean clasificados como no pobres o no vulnerables deberán contribuir solidariamente al sistema, de acuerdo a su capacidad de pago parcial, definida según el mismo Sisbén.

El recaudo de la contribución se efectuará por los canales que defina el Ministerio de Salud y Protección Social, recursos que se girarán a la Administradora de los Recursos del Sistema General de Seguridad Social en Salud (ADRES), donde harán unidad de caja para el pago del aseguramiento.

La base gravable será la Unidad de Pago por Capitación (UPC) del Régimen Subsidiado. El Ministerio de Salud y Protección Social fijará unas tarifas progresivas entre el 1% y el 15%, de acuerdo con la capacidad de pago parcial, las cuales se aplicarán a grupos de capacidad similar.

Cuando se identifiquen personas afiliadas al Régimen Subsidiado con capacidad de pago para cubrir el monto total de la cotización deberán afiliarse al Régimen Contributivo.

Les corresponderá a las alcaldías municipales garantizar que los afiliados al régimen subsidiado en salud cumplan con los requisitos legales para pertenecer a dicho régimen, sin perjuicio de las competencias de la Unidad de Gestión Pensional y Parafiscales (UGPP).

En caso de que se determine que el subsidio en salud se obtuvo mediante engaño sobre las condiciones requeridas para su concesión o callando total o parcialmente la verdad, se compulsará copia del expediente a la Fiscalía General de la Nación.

Parágrafo. Los afiliados al Régimen Subsidiado del Sistema General de Seguridad Social en Salud podrán adquirir un seguro para proteger su ingreso de subsistencia en momentos de enfermedad, según las condiciones que defina el Ministerio de Salud y Protección Social.

Parágrafo segundo. Los cotizantes al régimen contributivo y sus beneficiarios, podrán acceder temporalmente al régimen subsidiado de salud mediante la contribución solidaria, una ,vez finalice el beneficio estipulado en el Parágrafo primero del artículo 67 de la Ley 1753 de 2015, adicionado por el artículo 15 del Decreto Legislativo 538 ‘de 2020, cuando el cotizante

(i) no cumpla con las condiciones para pertenecer al régimen subsidiado,

(ii) haya finalizado su relación laboral durante la emergencia sanitaria o durante los seis (6) meses siguientes a su finalización, y

(iii) haya aportado al Sistema General de Seguridad Social en Salud sobre un Ingreso Base de Cotización -IBC-hasta de un (1) salario mínimo legal mensual vigente -SMLMV.

Este mecanismo estará disponible hasta por un periodo máximo de seis (6) meses después de finalizada la declaratoria de emergencia sanitaria y podrá ser prorrogado por el Ministerio de Salud y Protección Social. La permanencia en el mecanismo no podrá ser mayor a un (1) año contado a partir de la finalización de la relación laboral, el inicio del periodo de protección laboral o el mecanismo de protección al cesante, cuando aplique. En todo caso, la encuesta SISBÉN primará como criterio para determinar el pago de la contribución solidaria una vez entre en implementación la metodología IV del SISBÉN.

Artículo 243. Integrantes del Sistema General de Seguridad Social en Salud

Adiciónese el siguiente numeral al artículo 155 de la Ley 100 de 1993, así:

8. Operadores logísticos de tecnologías en salud y gestores farmacéuticos.

El Ministerio de Salud y Protección Social reglamentará los requisitos financieros y de operación de los agentes de los que trata este numeral. La Superintendencia de Industria y Comercio, en el desarrollo de sus funciones, garantizará la libre y leal competencia económica, mediante la prohibición de actos y conductas de competencia desleal.

Artículo 244. Declarado INEXEQUIBLE por sentencia C-68 DE 2020

Artículo 245. Acuerdos de pago de servicios y tecnologías en salud.

Con el fin de garantizar el derecho fundamental a la salud, la ADRES podrá, de manera transitoria y durante la vigencia de la presente Ley, suscribir acuerdos de pago con las EPS para atender el pago previo y/o acreencias por servicios y tecnologías en salud no incluidas en el Plan de Beneficios en Salud con cargo a la Unidad de Pago por Capitación del régimen contributivo prestados únicamente hasta el 31 de diciembre de 2019. Estos acuerdos de pago se registrarán como un pasivo en la contabilidad de la ADRES y se reconocerán como deuda pública y se podrán atender ya sea con cargo al servicio de la deuda del Presupuesto General de la Nación o mediante operaciones de crédito público. Este reconocimiento será por una sola vez, y para los efectos previstos en este artículo.

De atenderse con operaciones de crédito público, la Dirección General de Crédito Público y Tesoro Nacional del Ministerio de Hacienda y Crédito Público administrará, en una cuenta independiente, el cupo de emisión de deuda que se destine a la atención de las obligaciones de pago originadas en este artículo. Para los efectos previstos en este inciso, la Dirección General de Crédito Público y Tesoro Nacional estará facultada para realizar las operaciones necesarias en el mercado monetario y de deuda pública.

Parágrafo 1°. La ADRES será la entidad responsable de realizar las auditorías requeridas, así como el pago a las EPS o a las entidades que estas ordenen, de conformidad con los acuerdos de pago suscritos. Si durante el proceso de auditoría se llegase a presentar valores en exceso a los pagados, las EPS deberán proceder al reintegro de los recursos correspondientes.

Parágrafo 2°. Sin perjuicio de lo previsto en el primer inciso del presente artículo, el Ministerio de Hacienda y Crédito Público, así como el Ministerio de Salud y Protección Social deberán asignar en las vigencias presupuestales con posterioridad a la expedición de la presente Ley, los recursos suficientes para el pago a las EPS, por las Acreencias adquiridas por servicios y tecnologías en salud no incluidas en el Plan de Beneficios en Salud con cargo a la Unidad de Pago por Capitación del régimen contributivo.

Artículo 246. Interoperabilidad de la Historia Clínica

El Ministerio de Salud y Protección Social adoptará un mecanismo electrónico que desarrolle la interoperabilidad de la historia clínica. Dicho mecanismo deberá garantizar que todos los prestadores de servicios de salud públicos y privados, y demás personas naturales o jurídicas que se relacionen con la atención en salud, compartan los datos vitales definidos por el Gobierno nacional para dar continuidad a la atención en salud, los cuales deberán cumplir los estándares que se establezcan para el efecto.

El mecanismo electrónico de interoperabilidad garantizará la autenticidad, integridad, disponibilidad y fiabilidad de los datos y deberá utilizar las técnicas necesarias que minimicen el riesgo a la suplantación, alteración, pérdida de confidencialidad y cualquier acceso indebido o no autorizado a la misma, de conformidad con la Ley 1581 de 2012 y las normas que la modifiquen, adicionen o sustituyan.

Parágrafo. A partir de la entrada en vigencia de la presente Ley el Gobierno nacional, deberá en un término de doce (12) meses adoptar la reglamentación que estime necesaria para el desarrollo del presente artículo.

Artículo 247. Atención prioritaria a pacientes de regiones dispersas y de difícil acceso.

Cuando el proceso de referencia se solicite, de manera posterior a la atención de urgencias o ambulatorias prioritarias, se deberá dar prelación a aquellos pacientes que procedan de regiones dispersas y de difícil acceso, por parte de la entidad responsable de pago y de la Institución Prestadora de Servicios de Salud receptora. Igual consideración se deberá tener en cuenta para el proceso de contrarreferencia de estos pacientes.

Artículo 248. Fase de rehabilitación

Modifíquese el artículo 3° de la Ley 1471 de 2011, el cual quedará así:

Artículo 3°. Fase de rehabilitación. La Fase de Rehabilitación Inclusiva (FRI) del Sistema de Rehabilitación Integral (SRI) del Ministerio de Defensa Nacional, comprende elementos terapéuticos, educativos y de gestión que permiten alcanzar la autonomía de las personas con discapacidad y de otras poblaciones del sector defensa definidas en esta ley, para desarrollar un nuevo proyecto de vida, con miras a la inclusión al medio familiar, laboral y social.

Son beneficiarios de la Fase Inclusión: Miembros de la Fuerza Pública con discapacidad, sean estos activos, retirados, pensionados, beneficiarios mayores de edad con discapacidad de los miembros de la Fuerza Pública, veteranos, veteranos de Corea, miembros de la Fuerza Pública activos o retirados que accedan a la Jurisdicción Especial para la Paz (JEP), miembros de la Fuerza Pública que se encuentren en transición a la vida civil o en proceso de retiro, lesionados bajo las circunstancias previstas en los literales a, b, c, d del artículo 24 del Decreto 1796 de 2000 sin importar el porcentaje de pérdida de capacidad psicofísica otorgado por la junta médico laboral, víctimas militares y de policía conforme a lo definido en el artículo 3° de la Ley 1448 de 2011, personal civil con discapacidad del Ministerio de Defensa Nacional y de las Fuerzas Militares, y personal no uniformado con discapacidad de la Policía Nacional vinculados con anterioridad a la vigencia de la Ley 100 de 1993, que se encuentren en servicio activo o retirado de la institución, soldados regulares que hayan adquirido una discapacidad durante la prestación de su servicio militar obligatorio y, en general, poblaciones del sector seguridad y defensa que requieran de esta fase.

Será requisito para acceder a los servicios provistos en la Fase de Inclusión, que los titulares de los derechos de esta Ley estén afiliados y con los servicios activos al sistema de salud de las Fuerzas Militares o de la Policía Nacional o al Sistema General de Seguridad Social en Salud, según sea el caso, siempre que no implique erogación presupuestal adicional.

Los recursos que se destinen y asignen para dar cumplimiento a lo dispuesto en este artículo, deberán ser consistentes con el Marco Fiscal de Mediano Plazo y el Marco de Gasto de Mediano Plazo del Sector Defensa.

Artículo 249. Esquemas Asociativos Territoriales (EAT). 

La conformación y registro de las asociaciones de departamentos, distritos, municipios; regiones de planificación y gestión de que trata la Ley 1454 de 2011, se adelantará conforme al siguiente procedimiento:

i) Expedición de la ordenanza departamental, acuerdo municipal y/o distrital de cada una de las entidades territoriales interesadas, autorizando al gobernador o alcalde para conformar el correspondiente Esquema Asociativo Territorial (EAT);

ii) Suscripción del convenio interadministrativo con las entidades territoriales por medio del cual se conforma el respectivo EAT;

iii) Documento de los estatutos que regularán la conformación y funcionamiento del EAT de acuerdo con la ley 1551 de 2012, incluyendo la descripción del patrimonio y aportes de las entidades que conforman el respectivo EAT;

iv) Adopción de un plan estratégico de mediano plazo que contenga los objetivos, metas y líneas de acción para el cual se conforma el EAT.

Una vez conformado, el EAT deberá registrar el convenio de conformación y sus estatutos en el Registro de Esquemas Asociativos Territoriales que para el efecto ponga en funcionamiento el Gobierno nacional, quien podrá definir los requisitos, condiciones y procedimiento para el suministro de la información a que haya lugar.

Las entidades territoriales a través de los EAT conformados según el procedimiento descrito anteriormente y constituidos como persona jurídica de derecho público, podrán presentar proyectos de inversión de impacto regional a los órganos Colegiados de Administración y Decisión (OCAD), y ser designados como sus ejecutores, conforme a la normativa vigente y aplicable. Para la presentación del proyecto, este deberá contar con concepto favorable de los alcaldes o gobernadores, según sea el caso, de las entidades territoriales conformantes del EAT.

Sin perjuicio de lo establecido en la Ley 1454 de 2011 y la Ley 136 de 1994 y las normas que las modifiquen, complementen o reglamenten, los EAT podrán prestar servicios públicos, desempeñar funciones administrativas propias o las que las entidades territoriales o el nivel nacional le deleguen, ejecutar obras de interés del ámbito regional, cumplir funciones de planificación o ejecutar proyectos de desarrollo integral. Para tal fin deberán cumplir con las condiciones de experiencia, idoneidad y los demás requisitos dispuestos en las normas vigentes y aplicables, incluyendo la Ley 142 de 1994 y las que la modifiquen o sustituyan. Los EAT podrán, igualmente, asociarse con operadores autorizados por la autoridad competente para la prestación de los correspondientes servicios.

Los EAT conformados con anterioridad a la vigencia de la presente Ley continuarán sometiéndose a sus respectivas normas de conformación y funcionamiento, hasta tanto el Gobierno nacional habilite el referido sistema de registro. Una vez habilitado, los EAT ya conformados tendrán un plazo máximo de un (1) año para registrase. Sin perjuicio de lo anterior, los EAT que busquen acceder a los recursos de los OCAD y asumir las competencias definidas en el presente artículo deberán estar registrados en el sistema en mención.

Artículo 250. Pactos Territoriales

La Nación y las entidades territoriales podrán suscribir pactos regionales, departamentales y funcionales. Los pactos regionales son acuerdos marco de voluntades suscritos entre la Nación y el conjunto de departamentos que integran las regiones definidas en las bases del Plan Nacional de Desarrollo- “Pacto por Colombia – pacto por la equidad”, cuyo propósito es articular políticas, planes y programas orientados a la gestión técnica y financiera de proyectos de impacto regional conforme a las necesidades de los territorios, a fin de promover el desarrollo regional.

Los pactos departamentales son acuerdos marco de voluntades que podrán ser suscritos entre la Nación y cada uno de los departamentos priorizados para el desarrollo de las estrategias diferenciadas a las que hacen referencia las bases de la presente Ley, cuyo propósito es articular políticas, planes y programas orientados a la gestión técnica y financiera de proyectos conforme a las necesidades de los territorios, a fin de promover, entre otras cosas, la superación de la pobreza, el fortalecimiento institucional de las autoridades territoriales y el desarrollo socioeconómico de las comunidades.

Los pactos funcionales son acuerdos marco de voluntades que podrán ser suscritos entre la Nación y los municipios que tengan relaciones funcionales de acuerdo con la metodología que para el efecto defina el Departamento Nacional de Planeación, cuyo propósito es articular políticas, planes y programas orientados a la gestión técnica y financiera de proyectos conforme a las necesidades de los territorios, a fin de promover, entre otras cosas, el desarrollo subregional.

Los esquemas asociativos de entidades territoriales previstos en la Ley 1454 de 2011, podrán igualmente suscribir pactos territoriales según corresponda.

Las iniciativas o proyectos de inversión que hacen parte de los Contratos Plan piloto, los Contratos Plan para la Paz y el Posconflicto; así como en la Hoja de Ruta para la estabilización; identificados por el Departamento Nacional de Planeación como de impacto regional, podrán incorporarse a los Pactos Territoriales, y deberán articularse con las líneas programáticas y proyectos de impacto regional priorizados, en los términos y condiciones que para el efecto defina el Departamento Nacional de Planeación.

El Departamento Nacional de Planeación coordinará el proceso de transición y articulación de los Contratos Plan hacia el modelo de Pactos Territoriales y definirá los aspectos operativos correspondientes. En adelante la Nación, las entidades territoriales y los esquemas asociativos de entidades territoriales previstos en la Ley 1454 de 2011, solo podrán suscribir pactos territoriales. Se mantendrán como mecanismos para la ejecución de esta nueva herramienta los Contratos Específicos y el Fondo Regional para los Contratos Plan, en adelante Fondo Regional para los Pactos Territoriales, cuya operación se orientará a facilitar la ejecución de los Pactos Territoriales y de los Contratos Plan vigentes. Los Contratos Plan suscritos en virtud de lo dispuesto en el artículo 18 de la Ley 1454 de 2011, se mantendrán vigentes por el término de duración pactado entre las partes, que en todo caso, no podrá superar el 31 de diciembre de 2023.

Parágrafo. Dentro del marco de la conmemoración del Bicentenario de la Independencia de Colombia se celebrará por parte del Gobierno nacional un pacto territorial con las entidades territoriales afines a la mencionada celebración.

Artículo 251. Concurrencia de recursos para la financiación de iniciativas de gasto en diferentes jurisdicciones.

Las entidades territoriales podrán financiar de manera conjunta y concertada iniciativas de gasto por fuera de su jurisdicción, y en especial para la ejecución de proyectos de inversión con impacto regional, siempre y cuando este beneficie a las entidades territoriales que financian la iniciativa de propuesta.

Artículo 252. Cédula Rural

Con el propósito de formalizar la actividad de producción agropecuaria, promover la inclusión financiera, controlar el otorgamiento de créditos, subsidios, incentivos o apoyos estatales a las actividades agropecuarias y rurales; así como obtener información de la producción agropecuaria que facilite la adopción de políticas públicas para este sector, créase la cédula rural.

El Ministerio de Agricultura y Desarrollo Rural, en coordinación con el Ministerio de Hacienda y Crédito Público, reglamentará todos los aspectos requeridos para el funcionamiento y operación de este mecanismo.

El Ministerio de Agricultura y Desarrollo Rural podrá delegar en otras entidades públicas la administración y operación de la cédula rural.

Los recursos que se destinen y asignen para la implementación, administración y operación de la cédula rural deberán ser consistentes con el Marco Fiscal de Mediano Plazo y el Marco de Gasto del Sector de Agricultura y Desarrollo Rural.

Parágrafo. El Gobierno nacional tendrá en consideración las experiencias existentes en los procesos de cedulación rural, con el propósito de evitar duplicidades, precisar los alcances y enriquecer los procesos.

 Artículo 253. Política pública del sector campesino.

El Gobierno nacional construirá una política pública para la población campesina. El proceso de elaboración de dicha política se realizará a partir de la recolección de insumos de diferentes espacios de participación que incluyan a las organizaciones campesinas, la academia y las entidades especializadas en el tema campesino, se tendrán en cuenta los estudios de la Comisión de Expertos del campesinado, entre otros.

El proceso será liderado por el Ministerio de Agricultura con el acompañamiento del Ministerio del interior y el Departamento Nacional de Planeación.

Parágrafo. Una vez sancionada la presente Ley se iniciará la construcción de la ruta de elaboración de la política pública del sector campesino.

  Artículo 254. Diagnóstico, prevención y control de la salmonella

Autorícese al Gobierno nacional para que dentro del Plan Plurianual de Inversiones se asigne con cargo al Presupuesto General de la Nación, recursos con destino al Instituto Colombiano Agropecuario (ICA) para el diagnóstico, prevención y control de Salmonella Enteritides y Typhimurium a nivel de los productores.

Artículo 255. Vivienda rural efectiva

El Gobierno nacional diseñará un plan para la efectiva implementación de una política de vivienda rural. A partir del año 2020 su formulación y ejecución estará a cargo del Ministerio de Vivienda, Ciudad y Territorio, por lo que será esa entidad la encargada de coordinar y liderar la ejecución de los proyectos de vivienda y mejoramiento de vivienda encaminados a la disminución del déficit habitacional rural.

Para este efecto el Gobierno nacional realizará los ajustes presupuestales correspondientes, respetando tanto el Marco de Gasto de Mediano Plazo, así como el Marco Fiscal de Mediano Plazo, y reglamentará la materia.

Parágrafo. A partir del año 2020 el Ministerio de Vivienda, Ciudad y Territorio, a través del Fondo Nacional de Vivienda “Fonvivienda”, administrará y ejecutará los recursos asignados en el Presupuesto General de la Nación en inversión para vivienda de interés social urbana y rural, en los términos del artículo 6 de la Ley 1537 de 2012 o la norma que lo modifique, sustituya o complemente, así como los recursos que se apropien para la formulación, organización, promoción, desarrollo, mantenimiento y consolidación del Sistema Nacional de Información de Vivienda, tanto urbana como rural.

Artículo 256. Servicio Público de adecuación de tierras

Modifíquese el artículo 3° de la Ley 41 de 1993 así:

Artículo 3°. Servicio público de adecuación de tierras. El servicio público de adecuación de tierras (ADT) comprende la construcción de obras de infraestructura destinadas a dotar a un área determinada con riego, drenaje, o protección contra inundaciones, reposición de maquinaria; así como las actividades complementarias de este servicio para mejorar la productividad agropecuaria. Esto último de acuerdo con la reglamentación del Ministerio de Agricultura y Desarrollo Rural, de conformidad con lo dispuesto en el literal d) sobre costos del artículo “Sistema y método para la determinación de las tarifas”.

  Artículo 257. Creación de la tasa, hecho generador, sujeto pasivo y activo del Servicio Público de adecuación de tierras.

Adiciónese el siguiente artículo a la Ley 41 de 1993.

Artículo 16A. Creación de la tasa, hecho generador, sujeto pasivo y activo del servicio público de adecuación de tierras. Créase la tasa del servicio público de Adecuación de Tierras para recuperar los costos asociados a su prestación y que se constituyen como la base gravable para la liquidación. Estos costos se determinarán, a través del sistema y método tarifario establecido en la presente ley.

Serán hechos generadores de la tasa del servicio público de ADT los siguientes:

1. Suministro de agua para usos agropecuarios;

2. Drenaje de aguas en los suelos;

3. Protección contra inundaciones;

4. Desarrollo de actividades complementarias para mejorar la productividad agropecuaria.

La entidad pública propietaria del distrito que preste el servidor público de ADT, será sujeto activo de la tasa del Servicio Público de Adecuación de Tierras y todo usuario de los Distritos de Adecuación de Tierras será sujeto pasivo.

Artículo 258. Sistema y Método para la determinación de las tarifas.

Adiciónese el siguiente artículo a la Ley 41 de 1993.

Artículo 16B. Sistema y método para la determinación de las tarifas. El sistema y método para la fijación de las tarifas que se cobrarán como recuperación de los costos asociados a la prestación del servicio público de adecuación de tierras, es el siguiente:

1. Sistema: Para la definición de los costos sobre cuya base haya de calcularse la tarifa de adecuación de tierras, se aplicará el siguiente sistema:

a) Tarifa Fija: se calcula a partir de la sumatoria de los costos de administración y de la proporción de los costos de operación y conservación que establezca el Ministerio de Agricultura y Desarrollo Rural, dividida sobre el área del distrito de Adecuación de Tierras. Para establecer el valor que le corresponde pagar a cada usuario por concepto de esta tarifa, se multiplica por el área beneficiada de cada predio.

b) Tarifa Volumétrica o de aprovechamiento: se calcula a partir de la sumatoria de la proporción de los costos de operación y conservación, más el costo por utilización de aguas que el distrito de Adecuación de Tierras cancela a la autoridad ambiental competente, dividida por el volumen de agua anual derivado en bocatoma. Para establecer el valor que le corresponde pagar a cada usuario por concepto de esta tarifa, se multiplica por el volumen del agua entregado a cada usuario.

c) Tarifa por prestación de actividades para mejorar la productividad agropecuaria: se calcula a partir de la sumatoria de los costos fijos y variables de las actividades complementarias para mejorar la productividad agropecuaria, dividido entre el número de beneficiados por dichas actividades. Esta tarifa se cobrará únicamente a los usuarios del distrito de Adecuación de Tierras que soliciten al prestador del servicio público la prestación de dichas actividades.

d) Tarifa para reposición de maquinaria: se calcula a partir del valor anual de depreciación de la maquinaria, dividido sobre el área total del distrito de Adecuación de Tierras. Para establecer el valor que le corresponde pagar a cada usuario por concepto de esta tarifa, se multiplica por el área de cada predio.

Para el cálculo de las tarifas se utilizará:

I. El presupuesto anual de costos asociados a la prestación del servicio público de adecuación de tierras, elaborado por el prestador del servicio público.

II. El registro general de usuarios actualizado.

III. El plan de adecuación de tierras proyectado.

2. Método: Definición de los costos asociados a la prestación del servicio público de Adecuación de Tierras, sobre cuya base se hará la fijación del monto tarifario de la tasa del servicio público:

a) Costos de administración del distrito. Comprenden la remuneración del personal administrativo, costos generales, costos de facturación, arriendos, vigilancia, servicios públicos, seguros, impuestos y costos no operacionales relacionados con la administración del respectivo distrito.

b) Costos de operación del distrito. Comprenden la remuneración del personal operativo, energía eléctrica para bombeo, costos de operación y mantenimiento de vehículos, maquinaria y equipo, y movilización del personal de operación del distrito.

c) Costos de conservación. Comprenden la remuneración del personal de conservación y los costos de la conservación, limpieza, reparación y reposición de infraestructura y equipos del distrito.

d) Costos de actividades complementarias para mejorar la productividad agropecuaria. Comprenden los costos asociados al fortalecimiento organizacional y extensión agropecuaria; promoción de prácticas adecuadas para el uso del agua en el riego; apoyo a la producción agropecuaria; investigación, innovación, transferencia tecnológica y transformación; comercialización; manejo eficiente del agua y suelo; aprovechamiento de los materiales resultantes del mantenimiento y conservación del distrito de adecuación de tierras.

e) Costo de la Tasa por Utilización de Aguas (TUA). De conformidad con lo dispuesto en el artículo 43 de la Ley 99 de 1993 y el Decreto 1076 de 2015 o las disposiciones que hagan sus veces. Se calcula a partir del volumen de agua medido que se utiliza para la prestación del servicio de riego a los usuarios del Distrito de riego.

f) Costos de Reposición de Maquinaria. Son los costos en que se incurre para reemplazar la maquinaria del distrito destinada para la prestación del servicio público de adecuación de tierras a los usuarios, una vez haya cumplido su vida útil.

Parágrafo 1°. El Ministerio de Agricultura y Desarrollo Rural fijará mediante resolución, antes del 31 de diciembre de cada año y para la vigencia siguiente, la tarifa fija, la tarifa volumétrica y la tarifa para reposición de maquinaria del servicio público de riego, con el fundamento en el método y sistema establecidos en la presente ley. Asimismo, fijará anualmente la proporción de los costos de operación y conservación para las tarifas fija y volumétrica para cada distrito de Adecuación de Tierras, teniendo en cuenta su naturaleza, así como los sistemas de captación y distribución del agua.

Parágrafo 2°. El valor a pagar por el administrador del Distrito de Adecuación de Tierras por concepto de la Tasa por Utilización de Aguas (TUA) será con cargo a cada usuario del servicio y debe calcularse proporcionalmente al área beneficiada de cada uno por el servicio prestado.

Parágrafo 3°. En el caso de las asociaciones de usuarios, la factura del servicio público de adecuación de tierras constituye título ejecutivo y en consecuencia, su cobro se hará conforme con las reglas de procedimiento establecidas en el Código General del Proceso.

Artículo 259. Fondo de adecuación de tierras.

Modifíquese el artículo 16 de la Ley 41 de 1993 así:

Artículo 16. Fondo de Adecuación de Tierras. Créase el Fondo Nacional de Adecuación de Tierras (Fonat) como una unidad administrativa de financiamiento del Subsector de Adecuación de Tierras, cuyo objetivo es financiar los estudios, diseños y construcción de las obras de riego, avenamiento, reposición de maquinaria y las actividades complementarias al servicio de ADT para mejorar la productividad agropecuaria, esto último de acuerdo con la reglamentación del Ministerio de Agricultura y Desarrollo Rural, de conformidad con lo dispuesto en el literal d) sobre costos del artículo “Sistema y método para la determinación de las tarifas”.

El Fondo funcionará como una cuenta separada en el presupuesto de la Agencia de Desarrollo Rural (ADR), quien lo manejará y su representante legal será el Presidente de dicha Agencia.

Artículo 260. Entidad responsable inspección, vigilancia y control de ADT.

Adiciónese el siguiente artículo de la Ley 41 de 1993.

Artículo 16C. Entidad responsable inspección, vigilancia y control de ADT. El Ministerio de Agricultura y Desarrollo Rural será la entidad responsable de adelantar labores de inspección, vigilancia y control de la prestación del servicio público de adecuación de tierras conforme lo dispuesto en la ley.

Parágrafo. Para el ejercicio de estas funciones, el Ministerio de Agricultura y Desarrollo Rural organizará dentro de su estructura interna, una dependencia encargada de conocer de los procesos sancionatorios en primera y segunda instancia, de conformidad con el procedimiento aplicable contenido en la Ley 1437 de 2011.

 Artículo 261. Infracciones en la prestación del Servicio Público de ADT

Adiciónese el siguiente artículo de Ley 41 de 1993.

Artículo 16D. Infracciones en la prestación del servicio público de ADT. Serán infractores del servicio público de adecuación de tierras los usuarios y operadores en la prestación de este servicio público. Las infracciones serán las siguientes:

1. No suministrar oportunamente a las autoridades la información y los documentos necesarios para el ejercicio de la inspección, vigilancia y control.

2. No suministrar oportunamente a la asamblea general de la asociación de usuarios la información y documentos relevantes para la administración del distrito de adecuación de tierras.

3. Extraviar, perder o dañar bienes del distrito de adecuación de tierras o de la asociación de usuarios que se tengan bajo administración o custodia.

4. Asumir compromisos sobre apropiaciones presupuestales inexistentes en exceso del saldo disponible de apropiación o que afecten el presupuesto de la asociación de usuarios sin contar con las autorizaciones pertinentes.

5. Llevar de forma indebida los libros de registro de ejecución presupuestal de ingresos y gastos, así como los libros de contabilidad financiera.

6. Efectuar inversión de recursos públicos en condiciones que no garantizan seguridad, rentabilidad y liquidez.

7. Omitir o retardar injustificadamente el ejercicio de las funciones que le son propias de su naturaleza.

8. Extraviar, perder o dañar maquinaria, equipos técnicos necesarios para la debida operación y conservación del distrito de adecuación de tierras.

9. Extraviar, perder o dañar información administrativa financiera, técnica o legal relacionada con la operación del distrito de adecuación de tierras.

10. Alterar, falsificar, introducir, borrar, ocultar o desaparecer información de cualquiera de los sistemas de información del distrito de adecuación de tierras o permitir el acceso a ella a personas no autorizadas.

11. Recibir dádivas o beneficios por la prestación del servicio público de adecuación de tierras que no correspondan a las tarifas establecidas legalmente.

12. No asegurar por el valor real los bienes del distrito de adecuación de tierras que tenga bajo custodia.

13. Obtener o beneficiarse de la prestación del servicio público de adecuación de tierras de forma irregular, clandestina o a través de la alteración de los mecanismos de medición y control.

Artículo 262. Sanciones a la prestación del Servicio Público ADT

Adiciónese el siguiente artículo a la Ley 41 de 1993.

Artículo 16E. Sanciones a la prestación del servicio público ADT. Las sanciones señaladas en este artículo se impondrán como principales o accesorias a los responsables de las infracciones en calidad de operadores o usuarios del servicio público de adecuación de tierras y demás disposiciones vigentes que las adicionen, sustituyan o modifiquen, las cuales se incorporarán atendiendo a la graduación establecida en el artículo 50 de la Ley 1437 del 2011 o las disposiciones legales que hagan sus veces.

Las sanciones contenidas en el presente artículo, sin perjuicio de las sanciones penales y demás a que hubiere lugar, se impondrán al infractor de acuerdo con la gravedad de la infracción mediante resolución motivada.

1. Multas pecuniarias hasta por 241.644,6 UVT.

2. Suspensión temporal de la autorización para ejercer la función de prestador del servicio público de adecuación de tierras.

3. Revocatoria de la autorización para ejercer la función de prestador del servicio público de adecuación de tierras.

4. Inhabilidad hasta por veinte (20) años para ejercer la función de prestador del servicio público de adecuación de tierras.

Parágrafo 1°. Los actos administrativos que impongan sanciones pecuniarias prestarán mérito ejecutivo y su cobro podrá realizarse a través de jurisdicción coactiva.

Parágrafo 2°. En caso de que la entidad prestadora del servicio público de adecuación de tierras tenga un contrato de administración delegada sobre un distrito de propiedad del Estado y sea sancionada en los términos de los numerales 3 y/o 4, se terminará inmediata y unilateralmente el contrato.

Artículo 263. Reducción de la provisionalidad en el empleo público

Las entidades coordinarán con la Comisión Nacional del Servicio Civil (CNSC) la realización de los procesos de selección para el ingreso a los cargos de carrera administrativa y su financiación; definidas las fechas del concurso las entidades asignarán los recursos presupuestales que le corresponden para la financiación, si el valor del recaudo es insuficiente para atender los costos que genere el proceso de selección, de acuerdo con lo señalado en el artículo 9° de la Ley 1033 de 2006.

Los procesos de selección para proveer las vacantes en los empleos de carrera administrativa en los municipios de quinta y sexta categoría serán adelantados por la CNSC, a través de la Escuela Superior de Administración Pública (ESAP), como institución acreditada ante la CNSC para ser operador del proceso. La ESAP asumirá en su totalidad, los costos que generen los procesos de selección.

Parágrafo 1°. Las entidades públicas deberán adelantar las convocatorias de oferta pública de empleo en coordinación con la CNSC y el Departamento Administrativo de la Función Pública.

Parágrafo 2°. Los empleos vacantes en forma definitiva del sistema general de carrera, que estén siendo desempeñados con personal vinculado mediante nombramiento provisional antes de diciembre de 2018 y cuyos titulares a la fecha de entrada en vigencia de la presente ley le falten tres (3) años o menos para causar el derecho a la pensión de jubilación, serán ofertados por la CNSC una vez el servidor cause su respectivo derecho pensional.

Surtido lo anterior los empleos deberán proveerse siguiendo el procedimiento señalado en la Ley 909 de 2004 y en los decretos reglamentarios. Para el efecto, las listas de elegibles que se conformen en aplicación del presente artículo tendrán una vigencia de tres (3) años.

El jefe del organismo deberá reportar a la CNSC, dentro de los dos (2) meses siguientes a la fecha de publicación de la presente ley, los empleos que se encuentren en la situación antes señalada.

Para los demás servidores en condiciones especiales, madres, padres cabeza de familia y en situación de discapacidad que vayan a ser desvinculados como consecuencia de aplicación de una lista de elegibles, la administración deberá adelantar acciones afirmativas para que en lo posible sean reubicados en otros empleos vacantes o sean los últimos en ser retirados, lo anterior sin perjuicio del derecho preferencial de la persona que está en la lista de ser nombrado en el respectivo empleo.

  Artículo 264. Infraestructura para Proyectos Turísticos especiales (PTE)

Modifíquese el artículo 18 de la Ley 300 de 1996, cuyo texto será el siguiente:

Artículo 18. Infraestructura para Proyectos Turísticos Especiales (PTE). Son el conjunto de acciones técnica y jurídicamente definidas y evaluadas que están orientadas a la planeación, reglamentación, financiación y ejecución de la infraestructura que se requiere para el desarrollo de proyectos turísticos de gran escala en áreas del territorio nacional en la que teniendo en cuenta su ubicación geográfica, valores culturales y/o ambientales y/o sociales, así como la factibilidad de conectividad, se convierten en sitios de alta importancia estratégica para el desarrollo o mejoramiento del potencial turístico del país.

La definición de lo que debe entenderse por Proyecto Turístico Especial de Gran Escala, así como la determinación, delimitación, reglamentación, priorización y aprobación de los sitios en los cuales se desarrollará la infraestructura para Proyectos Turísticos Especiales (PTE), así como de sus esquemas de financiación y ejecución corresponde al Ministerio de Comercio, Industria y Turismo quien adelantará dichas acciones en coordinación con los alcaldes municipales y distritales de los territorios incluidos; los Proyectos Turísticos Especiales y la ejecución de su infraestructura constituyen determinante de superior jerarquía en los términos del artículo 10 de la Ley 388 de 1997.

Quedan excluidos del desarrollo de esta infraestructura, las áreas del Sistema de Parques Nacionales Naturales y los Parques Naturales Regionales. Cuando los proyectos en referencia incluyan o afecten las demás áreas del Sistema Nacional de Áreas Protegidas (Sinap) sus áreas de influencia o sus áreas con función amortiguadora según corresponda, o Bienes de Interés Cultural del ámbito nacional, deberá tener en cuenta la reglamentación sobre zonificación y régimen de usos vigentes para cada una de estas áreas, expedidas por las autoridades competentes.

En todo caso, para la ejecución de la infraestructura de los Proyectos Turísticos Especiales (PTE) de gran escala localizado en suelo rural donde estos se puedan desarrollar se requerirá tramitar previamente ante la Autoridad Nacional de Licencias Ambientales – el Plan de Manejo Ambiental que incluya de manera detallada las medidas y actividades para prevenir, mitigar, corregir o compensar los posibles impactos ambientales que se puedan generar con la ejecución de dicha infraestructura. De ser necesario, la ANLA previo concepto de la autoridad ambiental regional correspondiente, otorgará los permisos ambientales para el uso de los recursos naturales requeridos para la ejecución y funcionamiento de dicha infraestructura turística.

En el acto administrativo que determine el desarrollo del proyecto de infraestructura para el Proyecto Turístico Especial se hará el anuncio del proyecto para los efectos del Parágrafo 1° del artículo 61 de la Ley 388 de 1997.

Los recursos para la adquisición de los predios pueden provenir de terceros y se podrá aplicar el procedimiento previsto en los artículos 63 y siguientes de la Ley 388 de 1997.

Las entidades públicas podrán participar en la ejecución de los proyectos mediante la celebración de, entre otros, contratos de fiducia con sujeción a las reglas generales y del derecho comercial, sin las limitaciones y restricciones previstas en el numeral 5 del artículo 32 de la Ley 80 de 1993.

Artículo 265. Articulación del Plan Nacional de Desarrollo con el Plan Especial para el Desarrollo de Buenaventura

A través del presente Plan Nacional de Desarrollo, se garantiza la inclusión y articulación del plan integral especial para el desarrollo de Buenaventura y las llamadas “inversiones prioritarias”, según los términos del artículo 5° Parágrafos 4° y 5° y del artículo 10 de la Ley 1872 de 2017.

Artículo 266. Subcuenta pacto por el Chocó-Tumaco

Créase una Subcuenta dentro del Fondo para el Desarrollo del Plan Todos Somos PAZcífico, denominada PACTO POR EL CHOCÓ-TUMACO, que tendrá como objeto promover el desarrollo sostenible en las tres (3) cuencas hidrográficas principales del Departamento del Chocó (Atrato, Sanjuán y Baudó y Tumaco), y en especial:

a) La recuperación de la navegabilidad y de la actividad portuaria;

b) La adecuación y conservación de tierras;

c) La generación y distribución de energía;

d) La ejecución de obras de infraestructura y saneamiento básico;

e) El fortalecimiento de las políticas de comunicación;

f) La seguridad alimentaria;

g) El fomento y promoción del turismo;

h) La explotación acuícola sostenible;

i) Proyectos de desarrollo social.

El Gobierno nacional tendrá seis (6) meses a partir de la expedición de la presente ley para reglamentar la operación y funcionamiento de esta Subcuenta.

Artículo 267. Reconocimiento costos de transporte

Durante la vigencia de la presente ley, la Nación, a través del Ministerio de Minas y Energía, sin perjuicio de lo establecido en el artículo 55 de la Ley 191 de 1995, podrá reconocer el costo del transporte terrestre de los combustibles líquidos derivados del petróleo que se suministre desde las plantas de abastecimiento ubicados en el departamento de Nariño hasta la capital de dicho departamento y sus demás municipios.

Artículo 268. Zona Económica y Social Especial (ZESE) para la Guajira, norte de Santander y Arauca.

Créese un régimen especial en materia tributaria para los departamentos de La Guajira, Norte de Santander y Arauca, para atraer inversión nacional y extranjera y así contribuir al mejoramiento de las condiciones de vida de su población y la generación de empleo.

Este régimen aplica a las sociedades comerciales que se constituyan en la ZESE, dentro de los tres (3) años siguientes a la entrada en vigencia de la presente ley, bajo cualquiera de las modalidades definidas en la legislación vigente o las sociedades comerciales existentes que durante ese mismo término se acojan a este régimen especial y demuestren un aumento del 15% del empleo directo generado, tomando como base el promedio de los trabajadores vinculados durante los dos últimos años, el cual se debe mantener durante el periodo de vigencia del beneficio, y cuya actividad económica principal consista en el desarrollo de actividades industriales, agropecuarias, comerciales, turísticas o de salud. 

El beneficiario deberá desarrollar toda su actividad económica en la ZESE y los productos que prepare o provea podrán ser vendidos y despachados en la misma o ser destinados a lugares del territorio nacional o al exterior.

La tarifa del impuesto sobre la renta aplicable a los beneficiarios de la ZESE será del 0% durante los primeros cinco (5) años contados a partir de la constitución de la sociedad, y del 50% de la tarifa general para los siguientes cinco (5) años.

Cuando se efectúen pagos o abonos en cuenta a un beneficiario de la ZESE, la tarifa de retención en la fuente se calculará en forma proporcional al porcentaje de la tarifa del impuesto sobre la renta y complementarios del beneficiario.

Parágrafo 1°. Durante los diez (10) años siguientes los beneficiarios de la ZESE enviarán antes del 30 de marzo del año siguiente gravable a la Dirección Seccional respectiva o la que haga sus veces de la Unidad Administrativa Especial de Impuestos y Adunas Nacionales (DIAN), los siguientes documentos, los cuales esta entidad verificará con la declaración de impuesto sobre la renta correspondiente.

1. Declaración juramentada del beneficiario ante notario público, en la cual conste que se encuentra instalado físicamente en la jurisdicción de cualquiera de los departamentos a los que se refiere el presente artículo y que se acoge al régimen de la ZESE.

2. Certificado de Existencia y Representación Legal.

3. Las sociedades constituidas a la entrada en vigencia de la presente ley, además deben acreditar el incremento del 15% en el empleo directo generado, mediante certificación de revisor fiscal o contador público, según corresponda en la cual conste el promedio de empleos generados durante los dos últimos años y las planillas de pago de seguridad social respectivas.

Parágrafo 2°. El Gobierno nacional reglamentará cualquiera de los asuntos y materias objeto de la ZESE para facilitar su aplicación y eventualmente su entendimiento, y podrá imponer las sanciones administrativas, penales, disciplinarias, comerciales y civiles aplicables y vigentes tanto a las sociedades como a sus representantes en caso de que se compruebe que incumplen las disposiciones aquí previstas.

Parágrafo 3°. El presente artículo no es aplicable a las empresas dedicadas a la actividad portuaria o a las actividades de exploración y explotación de minerales e hidrocarburos.

Parágrafo 4°. El presente artículo no es aplicable a las sociedades comerciales existentes que trasladen su domicilio fiscal a cualquiera de los Municipios pertenecientes a los Departamentos de que trata este artículo.

Parágrafo 5°. Extiéndanse los efectos del presente artículo a aquellas ciudades capitales cuyos índices de desempleo durante los cinco (5) últimos años anteriores a la expedición de la presente ley hayan sido superiores al 14%.

  Artículo 269. Reducción de la vulnerabilidad fiscal del Estado frente a los desastres

Modifíquese el artículo 220 de la Ley 1450 de 2011, el cual quedará así:

Artículo 220. Reducción de la vulnerabilidad fiscal del Estado frente a desastres. El Ministerio de Hacienda y Crédito Público diseñará una estrategia para la gestión financiera, el aseguramiento y la mitigación ante riesgos de desastres de origen natural y/o antrópico no intencional. Dicha estrategia estará orientada a la reducción de la vulnerabilidad fiscal del Estado.

Parágrafo 1°. Como parte de la estrategia de la que trata el inciso primero, el Ministerio de Hacienda y Crédito Público evaluará, entre otros, la estructuración y/o implementación de mecanismos de protección financiera de diversa índole, incluyendo mecanismos de aseguramiento que permitan aprovechar los beneficios de la diversificación, así como la formulación de esquemas, mandatos o incentivos que promuevan y/o posibiliten en las entidades estatales la gestión financiera del riesgo de desastres de origen natural y/o antrópico no intencional.

Parágrafo 2°. El Ministerio de Hacienda y Crédito Público podrá, con cargo a los recursos del Presupuesto General de la Nación gestionar, adquirir y/o celebrar con entidades nacionales y/o extranjeras los instrumentos y/o contratos que permitan el aseguramiento y/o cubrimiento de dichos eventos.

Parágrafo 3°. La modalidad de selección para los instrumentos y/o contratos de los que trata el presente artículo se contratarán en forma directa; y se someterán a la jurisdicción que decidan las partes.

 Artículo 270. Obligación de pronto pago en contratos y actos mercantiles

El Gobierno nacional establecerá las condiciones para reglamentar el pago en plazos justos de operaciones comerciales derivadas de actos mercantiles entre particulares con los objetivos de promover la competitividad empresarial, mejorar la liquidez de las empresas proveedoras y reducir las demoras en el pago una vez se ha finalizado la provisión de los bienes y servicios.

Artículo 271. Transferencia de Zonas Francas de frontera a entidades

Con el propósito de Incentivar el desarrollo industrial, el crecimiento económico de los territorios de frontera, los flujos de inversión extranjera directa y las cadenas de valor global para el aumento de la productividad, el Ministerio de Comercio, Industria y Turismo, transferirá a título gratuito las Zonas Francas localizadas en municipios de frontera a los entes territoriales donde ellas se ubican; esta transferencia implicará el derecho real de dominio y posición sobre el predio, sus construcciones, instalaciones y obras de infraestructura, sin restricción alguna del uso, goce y disposición de esos derechos, salvo la relativa a la destinación del predio, para un único y exclusivo de regímenes de Zonas Francas, el cual no podrá ser modificado sino por reglamentación expresa del Gobierno Nacional, en virtud de lo previsto en el artículo 4° de la Ley 1004 de 2005. Esta previsión será de aplicación a las transferencias realizadas en virtud del artículo 258 de la Ley 1753 de 2015.

  Artículo 272. Bienes que no causan el impuesto

Modifíquese el numeral 13 del artículo 424 del Estatuto Tributario, el cual quedará así:

13. El consumo humano y animal, vestuario, elementos de aseo y medicamentos para uso humano o veterinario, materiales de construcción que se introduzcan y comercialicen a los departamentos de Amazonas, Guainía, Guaviare, Vaupés y Vichada, siempre y cuando se destinen exclusivamente al consumo dentro del mismo departamento. El Gobierno nacional reglamentará la materia para garantizar que la exclusión del IVA se aplique en las ventas al consumidor final.

  Artículo 273. Bienes que se encuentran exentos del impuesto

Adiciónese el numeral 6 al artículo 477 del Estatuto Tributario, el cual quedará así.

6. Las bicicletas y sus partes; motocicletas y sus partes y motocarros y sus partes, que se introduzcan y comercialicen en los departamentos de Amazonas, Guainía, Guaviare, Vaupés y Vichada, siempre y cuando se destinen exclusivamente al consumo dentro del mismo departamento y las motocicletas y motocarros sean registrados en el departamento. También estarán exentos los bienes indicados anteriormente que se importen al territorio aduanero nacional y que se destinen posteriormente exclusivamente a estos departamentos.

El Gobierno nacional reglamentará la materia con el fin de que la exención del IVA se aplique en las ventas al consumidor final y para que los importadores de las referidas mercancías ubicados fuera de los citados territorios, puedan descontar a su favor en la cuenta corriente del IVA, el valor total del mismo, pagado en la nacionalización y las compras nacionales a que hubiere lugar, cuando estas mercancías se comercialicen con destino exclusivo al consumo en los referidos departamentos.

  Artículo 274. Arancel a las importaciones

Se establecerá un arancel de treinta y siete punto nueve por ciento (37.9%) a las importaciones de productos clasificados en los capítulos 61 y 62 del Arancel de Aduanas Nacional, cuando el precio FOB declarado sea inferior o igual a 20 dólares de los Estados Unidos de América por kilo bruto.

Artículo 275. Arancel de Aduanas Nacionales

Se establecerá un arancel del 10% ad valórem, más tres dólares de los Estados Unidos de América por kilogramo bruto, para precios por kilogramo a partir de los 20 dólares USD, en los capítulos 61 y 62 del Arancel de Aduanas Nacional.

Artículo 276. Transferencia de dominio de bienes inmuebles fiscales entre entidades

Los bienes inmuebles fiscales de propiedad de las entidades públicas del orden nacional de carácter no financiero, que hagan parte de cualquiera de las Ramas del Poder Público, así como de los órganos autónomos e independientes, que no los requieran para el ejercicio de sus funciones, podrán ser transferidos a título gratuito a las entidades del orden nacional y territorial con el fin de atender necesidades en materia de infraestructura y vivienda, sin importar el resultado de la operación en la entidad cedente. Cuando la entidad territorial no necesite dicho inmueble, la Nación aplicará lo dispuesto en el artículo 163 de la Ley 1753 de 2015.

Las entidades territoriales podrán igualmente ceder a título gratuito a entidades del orden nacional bienes inmuebles fiscales de su propiedad, sin importar el resultado de la operación en el patrimonio de la entidad cedente.

Transferido el inmueble la entidad receptora será la encargada de continuar con el saneamiento y/o titulación del mismo.

Parágrafo. En cualquier caso la transferencia a título gratuito de la que se habla en este artículo, mantendrá, en concordancia con el POT, el uso del suelo que posee el inmueble transferido.

Artículo 277. Cesión a título gratuito o enajenación de bienes fiscales

Modifíquese el artículo 14 de la Ley 708 de 2001, el cual quedará así:

Artículo 14. Cesión a título gratuito o enajenación de dominio de bienes fiscales. Las entidades públicas podrán transferir mediante cesión a título gratuito la propiedad de los bienes inmuebles fiscales o la porción de ellos, ocupados ilegalmente con mejoras y/o construcciones de destinación económica habitacional, siempre y cuando la ocupación ilegal haya sido efectuada por un hogar que cumpla con las condiciones para ser beneficiario del subsidio de vivienda de interés social y haya ocurrido de manera ininterrumpida con mínimo diez (10) años de anterioridad al inicio del procedimiento administrativo. La cesión gratuita se efectuará mediante resolución administrativa, la cual constituirá título de dominio y una vez inscrita en la correspondiente Oficina de Registro de Instrumentos Públicos, será plena prueba de la propiedad.

En ningún caso procederá la cesión anterior tratándose de inmuebles con mejoras construidas sobre bienes de uso público o destinados a la salud y a la educación. Tampoco procederá cuando se trate de inmuebles ubicados en zonas insalubres o zonas de alto riesgo no mitigable o en suelo de protección, de conformidad con las disposiciones locales sobre la materia.

Parágrafo 1°. Para bienes inmuebles fiscales ocupados ilegalmente con mejoras que no cuenten con destinación económica habitacional, procederá la enajenación directa del predio fiscal por su valor catastral vigente a la fecha de la oferta. El Gobierno nacional reglamentará la materia.

Parágrafo 2°. Para los procesos de cesión a título gratuito o enajenación de dominio de bienes fiscales, no aplicarán las restricciones de transferencia de derecho real o aquella que exige la residencia transcurridos diez (10) años desde la fecha de la transferencia, establecidas en el artículo 21 de la Ley 1537 de 2012.

Parágrafo 3°. En las resoluciones administrativas de transferencia mediante cesión a título gratuito, se constituirá patrimonio de familia inembargable.

Parágrafo 4°. La cesión de la que trata el presente artículo solo procederá siempre y cuando el beneficiario asuma y acredite el cumplimiento de las obligaciones fiscales pendientes de pago con la entidad territorial, generadas por el inmueble a titular por concepto de impuesto predial.

Parágrafo 5°. Las administraciones municipales o distritales podrán suprimir de los registros y cuentas de los contribuyentes de su jurisdicción mediante los procedimientos de saneamiento contable, las deudas a cargo del cedente por conceptos de tributos a la propiedad raíz respecto al bien cedido en el marco de este artículo.

Artículo 278. Instrumento para la financiación de la renovación urbana

Los municipios de categorías especial, 1 y 2, que gestionen sus propios catastros directamente o a través de esquemas asociativos territoriales y que cumplan con criterios de eficiencia en el recaudo del impuesto predial definidos por el Gobierno nacional, podrán financiar infraestructura urbana vinculada a los proyectos estratégicos de renovación urbana contemplados en sus planes de ordenamiento territorial y planes de desarrollo territorial, a través de la titularización de la totalidad o parte de los mayores valores de recaudo futuro del impuesto predial que se genere en las zonas de influencia de los respectivos proyectos estratégicos de renovación urbana durante el período necesario para cubrir el monto de la emisión.

Para estos efectos, el mayor valor del recaudo futuro del impuesto predial que se genere en las zonas de influencia de los respectivos proyectos estratégicos de renovación urbana se cederá como aporte de la entidad territorial a los patrimonios autónomos autorizados por el artículo 121 de la Ley 1450 de 2011, los cuales podrán realizar la respectiva titularización y ejecutar el proyecto de renovación urbana, sin sujeción a la limitación prevista en el artículo 76 de la Ley 617 de 2000. Tales recursos se considerarán como un menor valor del ingreso por concepto de impuesto predial, se descontarán de la capacidad de endeudamiento y por ende no se reflejarán en el presupuesto de gastos de la entidad territorial.

Para la autorización de la titularización del recaudo futuro del impuesto predial y del aporte al fideicomiso de las rentas a ceder para el desarrollo de los proyectos, por parte de los concejos municipales o distritales, las entidades territoriales deberán aplicar los procedimientos que defina el Gobierno nacional para el control de riesgos, definición de proyecto estratégico, validación de la necesidad del instrumento, y validación de la insuficiencia de los demás instrumentos de captura de valor autorizados para financiar parte de la infraestructura urbana vinculada a proyectos estratégicos de renovación urbana; así como los criterios de eficiencia en el recaudo del impuesto predial.

Parágrafo. Los procesos de titularización de que trata el presente artículo quedarán excluidos de la autorización del Ministerio de Hacienda y Crédito Público a que hace referencia el inciso 2° del artículo 3° de la Ley 358 de 1997.

  Artículo 279. Dotación de soluciones adecuadas de agua para consumo humano y doméstico, manejo de aguas residuales y residuos sólidos en áreas urbanas de difícil gestión y en zonas rurales.

Los municipios y distritos deben asegurar la atención de las necesidades básicas de agua para consumo humano y doméstico y de saneamiento básico de los asentamientos humanos de áreas urbanas de difícil gestión, y en zonas rurales, implementando soluciones alternativas colectivas o individuales, o mediante la prestación del servicio público domiciliario de acueducto, alcantarillado o aseo, de acuerdo con los esquemas diferenciales definidos por el Gobierno nacional y la reglamentación vigente en la materia.

Con el fin de orientar la dotación de infraestructura básica de servicios públicos domiciliarios o de soluciones alternativas, el Ministerio de Vivienda, Ciudad y Territorio establecerá lo que debe entenderse por asentamientos humanos rurales y viviendas rurales dispersas que hacen parte del componente rural del Plan de Ordenamiento Territorial. Las autoridades ambientales y sanitarias y la Superintendencia de Servicios Públicos Domiciliarios definirán criterios de vigilancia y control diferencial para quienes, de acuerdo con sus competencias provean el servicio de agua potable.

No obstante, este uso deberá ser inscrito en el Registro de Usuarios del Recurso Hídrico, bajo el entendido de que la autorización en el presente inciso, sustituye la respectiva concesión. Las soluciones individuales de saneamiento básico para el tratamiento de las aguas residuales domésticas provenientes de viviendas rurales dispersas que sean diseñados bajo los parámetros definidos en el reglamento técnico del sector de agua potable y saneamiento básico no requerirán permiso de vertimientos al suelo; no obstante deberán ser registro de vertimientos al suelo que para tales efectos reglamente el Gobierno nacional. Esta excepción no aplica para hacer vertimientos directos de aguas residuales a cuerpos de aguas superficiales, subterráneas o marinas.

La Infraestructura de agua para consumo humano y doméstico o de saneamiento básico en zonas rurales, podrá ser entregada de manera directa para operación y mantenimiento, como aporte bajo condición, a las comunidades organizadas beneficiadas con la infraestructura, de acuerdo con la reglamentación que para tal efecto expida el Gobierno nacional.

Parágrafo 1°. El uso del agua para consumo humano y doméstico en viviendas rurales dispersas deberá hacerse con criterios de ahorro y uso eficiente del recurso hídrico, teniendo en cuenta los módulos de consumo establecidos por la autoridad ambiental competente.

Parágrafo 2°. Las excepciones que en el presente artículo se hacen en favor de las viviendas rurales dispersas no aplican a otros usos diferentes al consumo humano y doméstico, ni a parcelaciones campestres o infraestructura de servicios públicos o privados ubicada en zonas rurales. Tampoco aplica a los acueductos que se establezcan para prestar el servicio de agua potable a viviendas rurales dispersas.

Artículo 280. Destinación de los recursos de la participación de agua potable y saneamiento básico en los distritos y municipios

Modifíquese el literal h) del artículo 11 de la Ley 1176 de 2007, el cual quedará así:

h) Adquisición de los equipos requeridos y pago del servicio de energía por concepto de la operación de los sistemas de acueducto y alcantarillado en los municipios de categorías 5a y 6a que presten directamente estos servicios, conforme a la reglamentación que establezca el Gobierno nacional, siempre y cuando estos costos no estén incluidos en las tarifas cobradas a los usuarios.

Artículo 281. Hoja de Ruta Única

Créase la Hoja de Ruta para la implementación de la política de estabilización como una herramienta que articule los instrumentos derivados del Acuerdo Final, (Plan de Acción de Transformación Regional, Planes Nacionales Sectoriales, Planes Integrales de Sustitución y Desarrollo Alternativo, Planes Integrales de Reparación Colectiva, y el Plan Marco de Implementación cuando haya lugar) los planes de las Zonas Estratégicas de Intervención Integral donde coincidan territorial y temporalmente los planes y programas sectoriales y territoriales, así como con los mecanismos de financiación y de ejecución para garantizar la concurrencia de entidades, de recursos y consolidar la acción coordinada del Gobierno nacional, las autoridades locales, la participación del sector privado y la cooperación internacional, entre otros, en los 170 municipios que componen las 16 subregiones PDET definidas en el Decreto-ley 893 de 2017. La coordinación de la Hoja de Ruta estará a cargo de la Consejería para la Estabilización y la Consolidación, o quien haga sus veces, con el acompañamiento técnico del Departamento Nacional de Planeación y la Agencia para la Renovación del Territorio. Esta Hoja de Ruta deberá tener un acuerdo de inversión y cronograma de ejecución anualizado por cada subregión, en el cual se identifiquen los proyectos, responsables, compromisos, fuentes de financiación y recursos apropiados en las entidades competentes del orden nacional y en las entidades territoriales, de acuerdo con sus competencias y autonomía. Los proyectos definidos como de impacto regional podrán ser gestionados a través de los pactos territoriales, en concordancia con el artículo 250 de la presente ley.

La Consejería para la Estabilización y la Consolidación dará los lineamientos para la articulación de los acuerdos y proyectos de inversión incluidos en la Hoja de Ruta, así como para la planeación de largo plazo, de acuerdo con las metas del Plan Nacional de Desarrollo y los compromisos del Plan Marco de Implementación (PMI).

La Consejería para la Estabilización y la Consolidación, o el funcionario que designe el Presidente de la República, formará parte del OCAD PAZ con voz y voto. Los proyectos que se financien con cargo a los recursos del OCAD PAZ, deben orientarse al desarrollo de las inversiones previstas en la Hoja de Ruta en los municipios PDET, promoviendo la eficiencia en la utilización de los recursos públicos y complementando la oferta interinstitucional del Gobierno nacional.

Parágrafo 1°. Los planes para las Zonas Estratégicas de Intervención Integral (ZEII), creadas mediante la Ley 1941 de 2018, en las zonas en que coincidan con PDET, deberán coordinarse con la Consejería para la Estabilización y la Consolidación y construirse a partir de los resultados de los procesos participativos de los Planes de Acción para la Transformación Regional.

Parágrafo 2°. Los recursos destinados a la financiación de las Zonas Estratégicas de Intervención Integral (ZEII), en ningún caso podrán comprometer los recursos definidos por el Plan Marco de Implementación para los PDET.

Parágrafo 3°. Los proyectos contemplados en la Hoja de Ruta se implementarán en articulación con las entidades nacionales y territoriales. Para el efecto las entidades territoriales gozarán de plena autonomía legal para alinear sus instrumentos de planeación a lo previsto en la Hoja de Ruta y los lineamientos generados por la Consejería para la Estabilización y la Consolidación.

Parágrafo 4°. Para el cumplimiento e implementación de la política de estabilización, en especial lo contemplado en el presente artículo, con la expedición de la presente ley, la Agencia de Renovación del Territorio cambiará su adscripción del Sector Agricultura y Desarrollo Rural al sector Presidencia de la República. En desarrollo de lo anterior, el desarrollo y ejecución del Programa Nacional de Sustitución de Cultivos Ilícitos, se efectuará por parte de la Agencia de Renovación del Territorio. Con base en las facultades permanentes que se asisten al Gobierno nacional, dentro de los seis meses siguientes a la expedición de la presente ley, se procederán a efectuar los arreglos institucionales a que haya lugar.

Artículo 282. Fortalecimiento del Fondo de Reparación para las víctimas de la violencia

Los recursos líquidos derivados de los bienes extintos que no hayan sido entregados por las FARC-EP en los términos del artículo 2° del Decreto-ley 903 de 2017, tendrán como destinación el Fondo de Reparación para las Víctimas de la Violencia al que se refiere la Ley 1448 de 2011, a excepción de los predios rurales de los que trata el inciso segundo del artículo 91 de la Ley 1708 de 2014.

La Fiscalía General de la Nación determinará los bienes que se encuentran vinculados a procesos de extinción de dominio que no correspondan al inventario de que trata el Decreto-ley 903 de 2017.

Parágrafo. Los recursos líquidos que ingresen al Fondo de Reparación para las Víctimas en cumplimiento de este artículo serán destinados a la reparación colectiva administrativa de las víctimas en el marco de lo establecido en la Ley 1448 de 2011.

 Artículo 283. Administración y destinación de bienes.

Adicionar un Parágrafo al artículo 91 de la Ley 1708 de 2017, modificada por el artículo 22 de la Ley 1849 de 2017, así:

Parágrafo 4°. Los predios rurales donde se desarrollen o vayan a desarrollar proyectos productivos por parte de la población en proceso de reincorporación serán transferidos directamente por la Sociedad de Activos Especiales a los beneficiarios de estos proyectos que indique la Agencia Nacional de Reincorporación, en los plazos que defina el Gobierno Nacional. En estos casos se configurará una excepción frente a la obligación de transferir todos los bienes rurales a la Agencia Nacional de Tierras. Se excluyen de esta previsión los bienes a que se refiere el artículo 144 de la presente ley.

  Artículo 284. Renta Básica

Modifíquese el artículo 8° del Decreto-ley 899 de 2017, así:

Artículo 8°. Renta básica. La renta básica es un beneficio económico que se otorgará a cada uno de los integrantes de las FARC-EP, una vez surtido el proceso de acreditación y tránsito a la legalidad y a partir de la terminación de las Zonas Veredales Transitorias de Normalización y durante veinticuatro (24) meses, siempre y cuando no tengan un vínculo contractual, laboral, legal y reglamentario, o un contrato de cualquier naturaleza que les genere ingresos. Este beneficio económico equivaldrá al 90% del Salario Mínimo Mensual Legal Vigente en el momento de su reconocimiento.

Una vez cumplidos los veinticuatro (24) meses anteriormente señalados, se otorgará una asignación mensual equivalente al 90% del Salario Mínimo Mensual Legal Vigente, sujeta al cumplimiento de la ruta de reincorporación, la cual se compone de: Formación Académica, Formación para el Trabajo y Desarrollo Humano, Acompañamiento Psicosocial, Generación de Ingresos, entre otros componentes que disponga el Gobierno nacional. Este beneficio no será considerado fuente de generación de ingresos y su plazo estará determinado por las normas en materia de implementación del Acuerdo Final para la Terminación del Conflicto y el Establecimiento de una Paz Estable y Duradera contenidas en este Plan Nacional de Desarrollo. Las condiciones y términos para el reconocimiento de este beneficio serán establecidas por el Gobierno nacional.

Parágrafo. Para aquellos integrantes de las FARC-EP privados de la libertad que sean beneficiados con indulto o amnistía, en el marco del Acuerdo Final para la Terminación del Conflicto y la Construcción de una Paz Estable y Duradera, el desembolso de la renta básica se realizará a partir del mes siguiente de aquel en que recupere su libertad y una vez se realicen los trámites administrativos correspondientes.

  Artículo 285. Ampliación de las obras por impuestos

El mecanismo dispuesto en el artículo 71 de la Ley 1943 de 2018 se priorizará para beneficiar a los municipios definidos en el Decreto 893 de 2017 o la reglamentación que lo modifique o sustituya.

La Agencia de Renovación del Territorio (ART) efectuará una priorización de las iniciativas para conformar el banco de proyectos de que trata el inciso tercero del artículo 71 de la Ley 1943 de 2018, de conformidad con la identificación y priorización que se haya dado en el Plan de Acción para la Trasformación Regional (PATR) o la Floja de Ruta correspondiente.

SUBSECCIÓN 6. EQUIDAD EN LOS SERVICIOS PÚBLICOS

Artículo 286. Inversión de recursos públicos en infraestructura concesionada en áreas de servicio exclusivo

La Nación y las entidades territoriales podrán continuar celebrando y ejecutando contratos para realizar obras complementarias que no correspondan a inversiones obligatorias del concesionario en Áreas de Servicio Exclusivo, con el objeto de garantizar la efectiva prestación del servicio público domiciliario de energía eléctrica, o su prestación en condiciones eficientes, sin que por ello se entienda afectado el respectivo contrato de concesión.

La entidad interesada en realizar las obras deberá informar a la entidad concedente del Área de Servicio Exclusivo su propósito para que este último informe lo pertinente al concesionario. La entidad estatal concedente y el concesionario podrán acordar los términos en que este último colaborará y apoyará la realización de las obras, sin que ello implique afectación alguna al contrato de concesión.

En todo caso, las inversiones en obras complementarias de las que trata el presente artículo serán de propiedad de la Nación y/o de las entidades territoriales, según corresponda.

Artículo 287. Servicio Público domiciliario de energía eléctrica en Zonas No Interconectadas (ZNI).

El Servicio Público Domiciliario de Energía Eléctrica en ZNI es el transporte de energía eléctrica desde la barra de entrega de energía de un Generador al Sistema de Distribución hasta el domicilio del usuario final, incluida su conexión y medición. El suministro de energía eléctrica a un domicilio mediante soluciones individuales de generación también se considera, servicio público domiciliario de energía eléctrica en ZNI.

Los recursos del Fondo de Apoyo Financiero para la Energización de las Zonas No Interconectadas (Fazni), y del Fondo de Apoyo Financiero para la Energización de las Zonas Rurales Interconectadas (FAER) se podrán utilizar para la reposición de los activos necesarios para la prestación de este servicio.

El Fondo de Energías no Convencionales y Gestión Eficiente de la Energía (Fenoge) podrá financiar proyectos de gestión eficiente de la energía y sistemas individuales de autogeneración con FNCE en ZNI y en el Sistema Interconectado Nacional, incluyendo el mantenimiento y reposición de equipos y la transferencia del dominio de los activos a los beneficiarios de los respectivos proyectos. Estas soluciones no serán objeto de asignación de subsidios de los que trata el artículo 99 de la Ley 142 de 1994.

Artículo 288. Soluciones energéticas para proyectos del Fondo de Apoyo financiero para la energización de las Zonas No Interconectadas (FAZNI).

Las entidades territoriales o entes prestadores del servicio que soliciten recursos del FAZNI y/o al Instituto de Planificación y Promoción de Soluciones Energéticas para las Zonas No Interconectadas (IPSE) para la implementación de soluciones energéticas, deberán ejecutar directa o indirectamente su administración, operación y mantenimiento, garantizando su sostenibilidad, durante el tiempo que se indique en el respectivo contrato. Si transcurridos seis (6) meses a la terminación de la implementación de la solución energética, la entidad territorial o el prestador del servicio no recibe la infraestructura y no ha gestionado su administración, operación y mantenimiento, quien haga las veces de entidad contratante dará por terminado unilateralmente el respectivo contrato o carta compromisoria e iniciará la búsqueda de prestadores del servicio u operadores de red de la región que estén debidamente inscritos en el Sistema Único de Información (SUI), para que se encarguen de la administración, operación y mantenimiento de la solución energética, según el procedimiento que para el efecto defina el Ministerio de Minas y Energía.

La entidad territorial o el prestador que solicite el proyecto y no reciba la solución energética para su administración, operación y mantenimiento, garantizando su sostenibilidad, no podrá volver a acceder a recursos de Fazni y/o del IPSE, por los siguientes cuatro años al no recibo de la solución. En caso de que la entidad territorial o el prestador del servicio subsanen la situación descrita, la entidad administradora de los recursos del Fazni o el IPSE si son recursos de dicha entidad podrá modificar o exceptuar el cumplimiento de la medida a la que hace referencia este artículo, de conformidad con los requerimientos que para tal fin establezca el Ministerio de Minas y Energía. Dichos requerimientos podrán incluir, entre otros, el pago de una compensación a favor de la entidad administradora del Fazni o del IPSE, según corresponda, por parte de la entidad territorial o del prestador incumplido, o periodos de moratoria diferentes a los acá dispuestos para el acceso a los recursos.

Aquellas entidades territoriales o entes prestadores del servicio que se comprometieron a recibir la infraestructura para la administración, operación y mantenimiento de las soluciones energéticas con recursos del Fazni o con recursos del IPSE, con antelación a la presente ley y que aún no lo han hecho, tendrán seis (6) meses a partir de la entrada en vigencia de esta ley, para recibirlas e iniciar su administración, operación y mantenimiento. Transcurrido dicho plazo, si la entidad territorial o el ente prestador del servicio no inicia la administración, operación y mantenimiento del proyecto, se aplicarán las medidas dispuestas en este artículo.

Artículo 289. Transferencias del Sector Eléctrico.

Modifíquese el artículo 54 de la Ley 143 de 1994, el cual quedará así:

Artículo 54. Los autogeneradores, las empresas que vendan excedentes de energía eléctrica, así como las personas jurídicas privadas que entreguen o repartan, a cualquier título, entre sus socios y/o asociados, la energía eléctrica que ellas produzcan, están obligados a cancelar la transferencia en los términos de que trata el artículo 45 de la Ley 99 de 1993, que será calculada sobre las ventas brutas por generación propia, de acuerdo con la tarifa que señale la Comisión de Regulación de Energía y Gas para el efecto. Para la liquidación de esta transferencia, las ventas brutas se calcularán como la generación propia multiplicada por la tarifa que señale la Comisión de Regulación de Energía y Gas para el efecto.

Para el caso de la energía producida a partir de fuentes no convencionales a las que se refiere la Ley 1715 de 2014, cuyas plantas con potencia nominal instalada total supere los 10.000 kilovatios, deberán cancelar una transferencia equivalente al 1% de las ventas brutas de energía por generación propia de acuerdo con la tarifa que para ventas en bloque señale la Comisión de Regulación de Energía y Gas (CREG). Los recursos recaudados por este concepto se destinarán así:

a) 60% se destinará en partes iguales a las comunidades étnicas ubicadas en el área de influencia del proyecto de generación para la ejecución de proyectos de inversión en infraestructura, servicios públicos, saneamiento básico y/o de agua potable, así como en proyectos que dichas comunidades definan, siempre que incidan directamente en su calidad de vida y bienestar.

En caso de no existir comunidades étnicas acreditadas por el Ministerio del Interior en el respectivo territorio, el porcentaje aquí establecido se destinará a los municipios ubicados en el área del proyecto para inversión en infraestructura, servicios públicos, saneamiento básico y/o agua potable en las comunidades del área de influencia del proyecto.

b) 40% para los municipios ubicados en el área del proyecto que se destinará a proyectos de inversión en infraestructura, servicios públicos, saneamiento básico y/o de agua potable previstos en el plan de desarrollo municipal.

Parágrafo 1°. Para efectos de la liquidación y pago de la transferencia, se entenderá que el área de influencia será la establecida en el Estudio de Impacto Ambiental y en la licencia ambiental que expida la autoridad ambiental competente.

Parágrafo 2°. En caso de comunidades étnicas, la transferencia se hará a las comunidades debidamente acreditadas por el Ministerio del Interior, que se encuentren ubicadas dentro del área de influencia del proyecto de generación, en los términos que defina el Gobierno nacional.

Parágrafo 3°. Se exceptúa de las transferencias establecidas en este artículo, a la energía producida por la que ya se paguen las transferencias por generación térmica o hidroeléctrica, establecidas en el artículo 45 de la Ley 99 de 1993 o las normas que lo modifiquen o adicionen.

Parágrafo 4°. La tarifa de la transferencia de que trata el presente artículo se incrementará a 2% cuando la capacidad instalada de generación eléctrica a partir de fuentes no convencionales de energía renovables, reportada por el Centro Nacional de Despacho, sea superior al 20% de la capacidad instalada de generación total del país.

Artículo 290. Nuevos Agentes

La Comisión de Regulación de Energía y Gas (CREG), en el marco de la función de garantizar la prestación eficiente del servicio público, de promover la competencia, evitar los abusos de posición dominante y garantizar los derechos de los usuarios, dentro de la regulación sobre servicios de gas combustible, energía eléctrica y alumbrado público, incluirá:

1. Definición de nuevas actividades o eslabones en la cadena de prestación del servicio, las cuales estarán sujetas a la regulación vigente.

2. Definición de la regulación aplicable a los agentes que desarrollen tales nuevas actividades, los cuales estarán sujetos a la regulación vigente.

3. Determinación de la actividad o actividades en que cada agente de la cadena puede participar.

4. Definición de las reglas sobre la gobernanza de datos e información que se produzca como resultado del ejercicio de las actividades de los agentes que interactúan en los servicios públicos.

5. Optimización de los requerimientos de información y su validación a los agentes de los sectores regulados.

Parágrafo 1°. No obstante, lo dispuesto en el artículo 126 de la Ley 142 de 1994, la CREG podrá modificar las fórmulas tarifarias durante su vigencia cuando ello sea estrictamente necesario y motivado en la inclusión de nuevos agentes, actividades o tecnologías, cumpliendo con los criterios establecidos en dicho artículo para la implementación de la regulación.

Parágrafo 2°. El objeto de las Empresas de Servicios Públicos Domiciliarios, junto con sus actividades complementarias, en lo que tiene que ver con la prestación de los servicios de que trata la Ley 142 de 1994, continuará siendo prevalente con respecto a las demás actividades desarrolladas por aquellas en los términos de lo dispuesto en los artículos 99 y siguientes del Código de Comercio.

Parágrafo 3°. Las competencias establecidas en este artículo podrán ser asumidas por el Presidente de la República o por el Ministerio de Minas y Energía según a quien corresponda la función delegada en la CREG.

Artículo 291. Programa de energización para la Región Pacífica

Se dará continuidad y financiación al programa de energización para zonas rurales apartadas y dispersas de la región Pacífica para el período 2018-2022, a través del fondo creado en el artículo 185 de la Ley 1753 de 2015.

  Artículo 292. Edificios pertenecientes a las Administraciones Públicas

Modifíquese el artículo 30 de la Ley 1715 de 2014, el cual quedará así:

Artículo 30. Edificios pertenecientes a las administraciones públicas. El Gobierno nacional, y el resto de administraciones públicas, en un término no superior a un año, a partir del 1° de junio de 2019, realizarán la auditoría energética de sus instalaciones y establecerán objetivos de ahorro de energía a ser alcanzadas a través de medidas de eficiencia energética y de cambios y/o adecuaciones en su infraestructura. Tales objetivos deberán implicar para el primer año un ahorro en el consumo de energía de mínimo 15% respecto del consumo del año anterior y a partir del segundo año con metas escalonadas definidas a partir de la auditoría y a ser alcanzadas a más tardar en el año 2022. Para tal efecto, cada entidad deberá destinar los recursos (presupuesto) necesarios para cumplir con tales medidas de gestión eficiente de la energía.

Artículo 293. Proyectos de expansión de redes de GLP

El Ministerio de Minas y Energía fomentará la promoción y cofinanciación de proyectos de expansión de redes de GLP para conectar a los usuarios donde sea técnica y económicamente viable y priorizará los municipios con niveles altos e intermedios de Necesidades Básicas Insatisfechas, municipios rurales y zonas de difícil acceso.

Parágrafo 1°. El Ministerio de Minas y Energía definirá los términos y condiciones para la asignación de recursos públicos destinados a la ampliación de cobertura del servicio público domiciliario de gas combustible, entre las que se incluirán las condiciones de eficiencia económica incluidas en el Plan indicativo de expansión de cobertura de gas combustible elaborado por la UPME.

Parágrafo 2°. El Ministerio de Minas y Energía definirá los términos y condiciones para la asignación de recursos del Fondo Especial Cuota de Fomento de Gas Natural (FECFGN) destinados a la ampliación de cobertura del servicio público domiciliario de gas combustible, entre las que se incluirán las condiciones de eficiencia económica incluidas en el Plan Indicativo de Expansión de cobertura de gas combustible elaborado por la UPME.

Artículo 294. Gestión del Servicio Público domiciliario de gas combustible en zonas apartadas sin servicio.

De conformidad con las competencias establecidas en el artículo 8° de la Ley 142 de 1994 y el Decreto 381 de 2012, y las normas que lo sustituyan o lo complementen, el Ministerio de Minas y Energía dirigirá la forma en que se podrán gestionar los recursos que sociedades decidan aportar para extender el uso de gas natural distribuido por redes y/o gas licuado de petróleo distribuido por redes a cabeceras municipales que no cuenten con el servicio respectivo y/o a centros poblados diferentes a la cabecera municipal, como por ejemplo las veredas, los corregimientos, caseríos y/o inspecciones de policía, que no cuenten con el servicio respectivo. Para el efecto, la persona jurídica deberá depositar los recursos mencionados en una fiducia mercantil que la misma deberá contratar, a través de la cual se aportarán los recursos a empresas prestadoras de servicios públicos domiciliarios que ejecuten proyectos dirigidos a la prestación del servicio público de gas combustible. Los aportes de estos recursos se regirán por lo establecido en el numeral 87.9 del artículo 87 de la Ley 142 de 1994.

Por otra parte, la Comisión de Regulación de Energía y Gas (CREG), establecerá los mecanismos para que los valores de los recursos de que trata este artículo, y que sean entregados a título de aporte a las empresas seleccionadas, no se incluyan en el cálculo de las tarifas correspondientes, sin perjuicio de lo establecido en el artículo 126 de la Ley 142 de 1994, de tal forma que el usuario final se beneficie durante el período tarifario correspondiente. Las empresas de servicios públicos que resulten seleccionadas y que reciban estos aportes deberán solicitar la aprobación de las tarifas por parte de la CREG, una vez reciban los recursos.

Artículo 295. Subsidios para combustibles líquidos, biocombustibles y GLP.

Los subsidios a nivel nacional para los combustibles líquidos, biocombustibles y Gas combustible, se revisarán con el fin de establecer una metodología eficiente que garantice un precio competitivo y la mejor señal de consumo para los usuarios, sostenibilidad fiscal y la pertinencia de su ajuste gradual, sin que exista concurrencia de subsidios entre estos. Así mismo, se hará una revisión al Fondo de Estabilización de Precios de los Combustibles (FEPC) a fin de establecer una metodología que posibilite una estructura con sostenibilidad fiscal a largo plazo. El Ministerio de Minas y Energía revisará los subsidios de transporte de combustibles líquidos, gas combustible y crudo, así como lo de transporte en zonas especiales y diésel marino. El Ministerio de Hacienda y Crédito Público, el Ministerio de Transporte y el Ministerio de Minas y Energía revisarán el esquema de sobretasa que aplican los municipios para considerar los nuevos energéticos que se incorporarán a la matriz para movilidad.

Los subsidios a nivel nacional para los combustibles líquidos, biocombustibles y Gas combustible para los departamentos ubicados para la zona de frontera continuarán rigiéndose por el artículo 220 de la Ley 1819 de 2016.

 Artículo 296. Matriz Energética

En cumplimiento del objetivo de contar con una matriz energética complementaria, resiliente y comprometida con la reducción de emisiones de carbono, los agentes comercializadores del Mercado de Energía Mayorista estarán obligados a que entre el 8 y el 10% de sus compras de energía provengan de fuentes no convencionales de energía renovable, a través de contratos de largo plazo asignados en determinados mecanismos de mercado que la regulación establezca. Lo anterior, sin perjuicio de que los agentes comercializadores puedan tener un porcentaje superior al dispuesto en este artículo.

El Ministerio de Minas y Energía, o la entidad a la que este delegue, reglamentará mediante resolución el alcance de la obligación establecida en el presente artículo, así como los mecanismos de seguimiento y control, sin perjuicio de la función sancionatoria de la Superintendencia de Servicios Públicos Domiciliarios (SSPD). Las condiciones de inicio y vigencia de la obligación serán definidas en dicha reglamentación.

Artículo 297. Subsidios de energía eléctrica y gas

Los subsidios establecidos en el artículo 3° de la Ley 1117 de 2006, prorrogados a su vez por el artículo 1° de la Ley 1428 de 2010, además por el artículo 76 de la Ley 1739 de 2014 y por el artículo 17 de la Ley 1753 de 2015 se prorrogan, como máximo, hasta el 31 de diciembre de 2022.

Parágrafo. Buscando la eficiencia de los recursos presupuestales destinados para financiar subsidios de energía eléctrica y gas a usuarios de menores ingresos, se implementarán medidas que permitan el cruce entre la estratificación y la información socioeconómica de los usuarios como parámetro de focalización del subsidio.

Artículo 298. Actividades relacionadas con la prestación del Servicio Público de Energía Eléctrica

Sustitúyase el artículo 74 de la Ley 143 de 1994 por el siguiente:

Las Empresas de Servicios Públicos Domiciliarios que tengan por objeto la prestación del servicio público de energía eléctrica y que hagan parte del Sistema Interconectado Nacional, podrán desarrollar las actividades de generación, distribución y comercialización de energía de manera integrada. Esta disposición aplicará también para las empresas que tengan el mismo controlante o entre las cuales exista situación de control en los términos del artículo 260 del Código de Comercio y el artículo 45 del Decreto 2153 de 1992, o las normas que las modifiquen o adicionen.

La Comisión de Regulación de Energía y Gas establecerá la regulación diferencial que fuere pertinente para la promoción de la competencia y la mitigación de los conflictos de interés en los casos de que trata el presente artículo y en los casos en que la integración existiere previamente a la expedición de la presente ley.

Parágrafo 1°. La Comisión de Regulación de Energía y Gas deberá adoptar medidas para la adecuada implementación de lo dispuesto en el presente artículo, en relación con la concurrencia de actividades de comercialización, generación y distribución en una misma empresa o en empresas con el mismo controlante o entre las cuales exista situación de control, incluyendo posibles conflictos de interés, conductas anticompetitivas y abusos de posición dominante y las demás condiciones que busquen proteger a los usuarios finales.

Parágrafo 2°. Ninguna empresa de servicios públicos domiciliarios que desarrolle en forma combinada la actividad de generación de energía, y/o la de comercialización y/o la de distribución, que represente más del 25% del total de la demanda del Sistema Interconectado Nacional, podrá cubrir con energía propia o con energía de filiales o empresas controladas, más del 40% de la energía requerida para atender la demanda de su mercado regulado. Esta restricción no aplicará a los contratos bilaterales que sean asignados en procesos competitivos en los que expresamente el Ministerio de Minas y Energía o la Comisión de Regulación de Energía y Gas en ejercicio de las funciones delegadas, dispongan que están exceptuados de esta restricción. El Gobierno nacional o la Comisión de Regulación de Energía y Gas en ejercicio de las funciones delegadas, podrá establecer un porcentaje inferior a este 40%.

 Artículo 299. Equidad regional en la prestación de los servicios de acueducto y alcantarillado.

El Ministerio de Vivienda, Ciudad y Territorio solicitará a la Comisión de Regulación de Agua Potable y Saneamiento Básico el inicio de una actuación administrativa en el marco de lo establecido en el numeral 14 del artículo 73 de la Ley 142 de 1994, cuando cuente con estudios que indiquen que es necesario para garantizar condiciones de equidad regional en la prestación de los servicios públicos de acueducto y/o alcantarillado de dos o más municipios, orientada a incrementar la cobertura, disminuir los costos en la prestación o mejorar la calidad.

El Gobierno nacional reglamentará la oportunidad, alcance y contenido de los estudios que deben soportar dicha solicitud, y definirá los criterios de participación accionaria en la creación de nuevas empresas.

Artículo 300. Zonas diferenciales para el transporte

Modifíquese el artículo 182 de la Ley 1753 de 2015, el cual quedará así:

Artículo 182. Zonas diferenciales para el transporte. Para garantizar las condiciones de accesibilidad y seguridad, promover la formalización del servicio de transporte público y garantizar a los pobladores los servicios de tránsito, el Ministerio de Transporte podrá crear zonas diferenciales para el transporte y el tránsito. Dichas zonas estarán constituidas por un municipio y/o grupos de municipios, donde no existan sistemas de transporte cofinanciados por la Nación, y cuya vocación rural o características geográficas, económicas, sociales, étnicas u otras propias del territorio impidan la normal prestación de los servicios de transporte o tránsito en las condiciones de la normativa vigente y aplicable. La extensión geográfica de la zona diferencial será determinada por el Ministerio de Transporte.

El Ministerio de Transporte y los gobiernos locales, en forma coordinada, podrán expedir reglamentos de carácter especial y transitorio en materia de servicio de transporte público o servicios de tránsito con aplicación exclusiva en estas zonas.

Los actos administrativos expedidos conforme a lo determinado como Zonas Estratégicas para el Transporte (ZET), con anterioridad a la presente ley, se entenderán sujetos a lo establecido en este artículo para las Zonas Diferenciales de Transporte y mantendrán su vigencia.

Parágrafo. En lo relacionado con el transporte escolar, el Ministerio de Educación Nacional acompañará al Ministerio de Transporte en el proceso de caracterización de las zonas diferenciales para el transporte dando prioridad a zonas rurales o de frontera, con el fin de que las autoridades territoriales en el marco de sus competencias, puedan garantizar el acceso efectivo de la población al sistema de educación.

Artículo 301. Inserción de los sistemas ferroviarios

La zona de protección, la zona de seguridad, así como las franjas de retiro obligatorio o área de reserva o de exclusión de los sistemas ferroviarios serán definidas por la entidad encargada de la administración o gestión de dicha infraestructura o por la ejecutora del proyecto, dependiendo del tipo de sistema ferroviario a ser desarrollado, previa justificación técnica. Dichas zonas deberán ser aprobadas por el Ministerio de Transporte o la Comisión de Regulación de Infraestructura y Transporte (CRIT).

En todos los casos, la zona de protección y las franjas de retiro obligatorio o las áreas de reserva o de exclusión no podrán ser inferiores al Galibo Libre de Obstáculos (GLO).

El Ministerio de Transporte definirá los parámetros técnicos y de seguridad, bajo los cuales operen, diseñen y construyan los cruces de carreteras u otras vías de comunicación, con líneas férreas existentes o que se proyecte construir. Para la fijación de estos parámetros se tendrán en cuenta, entre otras, las condiciones de tráfico, seguridad y tecnología.

Parágrafo 1°. El Ministerio de Transporte asumirá las funciones que se asignan en el presente artículo, hasta tanto la CRIT entre en funcionamiento.

Parágrafo 2°. El Instituto Nacional de Vías podrá permitir a las entidades territoriales la intervención de la totalidad o parte de las fajas de los corredores férreos, o los derechos de vía de los mismos de su propiedad, o su eventual transferencia de dominio para la construcción de infraestructura de sistemas urbanos de transporte público masivo de pasajeros de otros modos de transporte. Lo anterior, cuando se cumplan las siguientes condiciones:

(i) que el proyecto a ser ejecutado sobre un corredor férreo haya sido declarado de importancia estratégica nacional;

(ii) que el proyecto sea cofinanciado por la Nación;

(iii) que sobre el corredor actualmente no sea posible el transito férreo; y,

(iv) que no haga parte de los planes de reactivación de la red férrea nacional.

Para el efecto se deberá suscribir un convenio interadministrativo en el que se definan los términos y condiciones de la respectiva intervención, incluyendo la obligación de la entidad territorial de compensar con la administración, operación y/o mantenimiento de otro corredor férreo nacional, que haga parte de un proyecto declarado de importancia estratégica nacional. La compensación se dará por:

(i) el permiso de intervención y la modificación del respectivo modo de transporte y/o

(ii) la eventual transferencia de dominio de las áreas a que haya lugar a la respectiva entidad territorial, realizada mediante acto administrativo inscrito en la oficina de registro de instrumentos públicos.

 Artículo 302. Subvenciones rutas sociales Satena.

Modifíquese el artículo 240 de la Ley 1753 de 2015, el cual quedará así:

Artículo 240. Subvenciones rutas sociales Satena. Con el fin de promover la prestación del servicio de transporte aéreo en las regiones de difícil acceso y conectividad, el Gobierno nacional podrá otorgar subvenciones a Satena S. A., a través del presupuesto del Ministerio de Defensa Nacional, para la prestación del servicio público esencial de transporte aéreo, en aquellas rutas sociales en las cuales Satena S. A. sea el único operador.

La Unidad Administrativa Especial de Aeronáutica Civil determinará las rutas y el Gobierno nacional las condiciones de estas subvenciones, que en ningún caso podrán ser superiores al déficit que registre la empresa como resultado de atender las denominadas rutas sociales en las cuales opere de manera exclusiva.

Esta subvención tendrá una vigencia del 1° de enero al 31 de diciembre de cada anualidad y estará sujeta a la disponibilidad presupuestal del Ministerio de Defensa Nacional.

Artículo 303. Empresa de transporte naviero de Colombia

Créase una Empresa Industrial y Comercial del Estado del nivel nacional, vinculada al Ministerio de Defensa Nacional, denominada Empresa de Transporte Naviero de Colombia, con personería jurídica, patrimonio propio, autonomía administrativa y financiera, cuyo domicilio es la ciudad de Bogotá y su objeto será fomentar el desarrollo de zonas apartadas a través de la prestación del servicio público de transporte de personas y mercancías por medios marítimos y fluviales, facilitando la conexión de estas zonas con el resto del país.

Su patrimonio estará constituido por los recursos propios que generen y aquellos que recibe del Presupuesto General de la Nación.

Son órganos de administración y dirección de la Empresa de Transporte Naviero de Colombia la Junta Directiva y el Director General, sin perjuicio de los demás órganos que sean definidos por el decreto que para el efecto expida el Gobierno nacional.

Parágrafo. Por un término de cinco (5) años la disposición consagrada en el Parágrafo 2° del artículo 8° de la Ley 185 de 1995 no será aplicable para Empresa de transporte naviero de Colombia pudiendo el Gobierno nacional capitalizar la empresa para cubrir el déficit operacional.

 Artículo 304. Otras fuentes de financiación para la sostenibilidad de infraestructura de transporte

Para el financiamiento de la infraestructura, las entidades del sector transporte podrán implementar estrategias de financiación, tales como enajenación directa de activos, cobro por derechos por uso de la infraestructura de los distintos modos de transporte de su competencia. Los recursos obtenidos se destinarán al sector transporte, previa incorporación presupuestal.

Con el mismo fin, el sector transporte podrá obtener ingresos a través de publicidad en la infraestructura o anexidades existentes, en los distintos modos de transporte propiedad de la Nación administrada por obra pública o concesión.

Artículo 305. Cofinanciación de Sistemas de Transporte masivo que se conecten con los aeropuertos 

Créese una Tasa que coadyuve a la financiación de sistemas de transporte público de pasajeros del modo férreo, de alimentación eléctrica, que brinden conexión directa con los aeropuertos.

El Ministerio de Transporte establecerá la tarifa de la Tasa bajo los siguientes parámetros.

El hecho generador es la prestación efectiva del servicio público de transporte masivo de pasajeros del modo férreo conectado con el modo aéreo, siempre y cuando exista una infraestructura operativa que dé derecho al usuario a acceder a la infraestructura intermodal y a usar el servicio férreo.

Serán sujetos activos las autoridades de transporte del municipio, distrito o área metropolitana, encargados de la prestación del servicio público de transporte férreo.

Serán sujetos pasivos los usuarios del transporte público férreo que tengan como origen o destino el aeropuerto.

La metodología para fijar la tarifa es la de recuperación de costos y gastos para construcción, operación y mantenimiento de la infraestructura adicional necesaria para llegar al aeropuerto. La recuperación de costos y gastos se debe calcular en valor presente a la tasa de descuento del proyecto.

Artículo 306. Destinación de multas y sanciones.

Modifíquese el artículo 160 de la Ley 769 de 2002, el cual quedará así:

Artículo 160. Destinación de multas y sanciones. De conformidad con las normas presupuestales respectivas, el recaudo por concepto de multas y sanciones por infracciones de tránsito, se destinará a la ejecución de los planes y proyectos del sector movilidad, en aspectos tales como planes de tránsito, transporte y movilidad, educación, dotación de equipos, combustible, seguridad vial, operación e infraestructura vial del servicio de transporte público de pasajeros, transporte no motorizado, y gestión del sistema de recaudo de las multas, salvo en lo que corresponde a la Federación Colombiana de Municipios.

Parágrafo. En lo que se refiere al servicio de transporte público las entidades territoriales que cuenten con sistemas de transporte cofinanciados por la Nación priorizarán la financiación de estos sistemas.

Artículo 307. Fondo Nacional de modernización del parque automotor de carga

Créase el Fondo Nacional de Modernización del Parque Automotor de Carga, como un patrimonio autónomo constituido mediante la celebración de un contrato de fiducia mercantil por parte del Ministerio de Transporte, con el objeto de financiar el programa de modernización del parque automotor de carga.

El Fondo se financiará con:

i) el saldo de los recursos pendientes por ejecutar del “Programa de Promoción para la Reposición y Renovación del Parque Automotor de Carga”;

ii) los recursos provenientes del pago efectuado por los interesados dentro del proceso de normalización del registro inicial de vehículos de carga y/o del pago de un porcentaje del valor comercial del vehículo nuevo de carga, que reglamente el Gobierno nacional como requisito para su matrícula inicial;

iii) los recursos aportados por particulares y organismos multilaterales; y,

iv) los recursos que de manera subsidiaria aporte el Gobierno nacional de acuerdo con el marco de gasto del sector y el Marco Fiscal de Mediano Plazo.

  Artículo 308. Contribución de las concesiones al funcionamiento de la Agencia Nacional de Infraestructura (ANI) y la Unidad Administrativa Especial de Aeronáutica Civil.

De los recursos percibidos por la Nación por concepto de las concesiones férreas y aéreas se destinará un porcentaje para el funcionamiento de estas entidades, de la siguiente manera:

En las concesiones férreas y aéreas, el Gobierno nacional definirá y aplicará una fórmula que permita repartir porcentualmente los recursos recaudados por el uso de la infraestructura de cada uno de los modos para los gastos de funcionamiento de la Agencia Nacional de Infraestructura y la Unidad Administrativa Especial de Aeronáutica Civil. El porcentaje restante por concepto de recaudo por uso de la infraestructura, será destinado a financiar la construcción, mantenimiento y operación de cada modo, según corresponda.

Parágrafo. En todo caso, el porcentaje señalado en este artículo no podrá ser superior al 15% por modo para la financiación del presupuesto del funcionamiento de la ANI.

Artículo 309. Acceso a las TIC y despliegue de la infraestructura

Modifíquese el Parágrafo 1° del artículo 193 de la Ley 1753 de 2015, el cual quedará así.

Parágrafo 1°. Los alcaldes podrán promover las acciones necesarias para implementar la modificación de los planes de ordenamiento territorial y demás normas distritales o municipales que contengan barreras al despliegue de infraestructura para la prestación de servicios de telecomunicaciones. El Ministerio de Tecnologías de la Información y las Comunicaciones priorizará a aquellas entidades territoriales que hayan levantado tales barreras, incluyéndolas en el listado de potenciales candidatos a ser beneficiados con las obligaciones de hacer que el Ministerio puede imponer a los proveedores de redes y servicios de telecomunicaciones móviles, como mecanismo de ampliación de cobertura de servicios de telecomunicaciones. Para constatar la inexistencia y remoción de las barreras en mención, el alcalde deberá solicitar a la Comisión de Regulación de Comunicaciones o a quien haga sus veces que, en ejercicio de las facultades que le confiere el presente artículo, constate si las barreras ya fueron levantadas. Una vez la Comisión de Regulación de Comunicaciones acredite que la respectiva entidad territorial no presenta barreras al despliegue de infraestructura de telecomunicaciones, el Ministerio de Tecnologías de la Información incluirá al municipio en el listado antes mencionado.

Artículo 310. Expansión de las Telecomunicaciones

Modifíquese el artículo 194 de la Ley 1753 de 2015, el cual quedará así:

Artículo 194. Expansión de las telecomunicaciones. El Gobierno nacional, a través del Ministerio de Tecnologías de la Información y las Comunicaciones (MinTIC), diseñará e implementará planes, programas y proyectos que promuevan en forma prioritaria el acceso y el servicio universal a las Tecnologías de la Información y las Comunicaciones (TIC). Igualmente, en coordinación con la Autoridad Nacional de Televisión (ANTV), o quien haga sus veces, se promoverá el diseño o implementación de planes, programas y proyectos para el desarrollo de la Televisión Digital Terrestre (TDT) y Direct to Home (DTH) para que estas lleguen a todo el territorio nacional. Para el efecto:

1. El MinTIC priorizará las iniciativas de acceso público a Internet, en beneficio de la población pobre y vulnerable, o en zonas apartadas.

2. El MinTIC podrá adelantar iniciativas de masificación del acceso a Internet con participación del sector privado, mediante cualquiera de los mecanismos de contratación dispuestos en las normas vigentes.

3. El MinTIC y la ANTV, o quien haga sus veces, promoverán, respectivamente, que las entidades públicas e instituciones educativas del orden nacional y territorial financien sus necesidades de conectividad a Internet, TDT y DTH, sin perjuicio de la cooperación para el desarrollo de proyectos orientados a la satisfacción de necesidades de acceso y uso de Internet y acceso a TDT y DTH de la población pobre y vulnerable, o en zonas apartadas.

4. El MinTIC, para la implementación de las iniciativas de acceso público a Internet, podrá impulsar estrategias que fomenten el uso de tecnologías costo-eficientes bajo condiciones regulatorias especiales que sean definidas para el efecto por el regulador y mecanismos que optimicen la inversión en capacidad satelital u otras alternativas.

5. El MinTIC implementará iniciativas de estímulo a la oferta y a la demanda de servicios de telecomunicaciones en beneficio de la población pobre y vulnerable, incluyendo el fomento al despliegue de redes de acceso y expansión de cobertura, así como subsidios o subvenciones para la prestación de los servicios o el suministro de terminales, entre otros.

6. El Fondo de las Tecnologías de la Información y las Comunicaciones (Fontic), o quien haga sus veces, podrá promover la prestación del servicio de internet a través de los operadores de televisión comunitaria, previa inscripción e incorporación de estos en el registro TIC. Para el efecto, podrá suscribir convenios de asociación con entidades sin ánimo de lucro, de reconocida idoneidad, en los términos de los artículos 355 de la Constitución Política y 96 de la Ley 489 de 1998.

7. El MinTIC podrá establecer obligaciones de hacer como forma de pago de la contraprestación económica por el otorgamiento o renovación de los permisos de uso del espectro radioeléctrico, para ampliar la calidad, capacidad y cobertura del servicio, que beneficie a población pobre y vulnerable, o en zonas apartadas, en escuelas públicas ubicadas en zonas rurales y otras instituciones oficiales como centros de salud, bibliotecas públicas e instituciones educativas, así como prestar redes de emergencias. Las inversiones a reconocer serán determinadas por el MinTIC de acuerdo con la reglamentación que expida al respecto;

El Fontic, o quien haga sus veces, podrá financiar el desarrollo de las iniciativas contenidas en los numerales 1 al 6 del presente artículo.

Parágrafo 1°. Los estímulos de que trata el presente artículo tendrán un periodo máximo de aplicación definido en la reglamentación del programa y un desmonte ajustado a una senda gradual decreciente, siempre que guarden consistencia con la proyección de ingresos del Fontic, o quien haga sus veces.

Parágrafo 2°. Los recursos que se destinen y asignen para dar cumplimiento a lo dispuesto en este artículo, deberán ser consistentes con el Marco Fiscal de Mediano Plazo y el Marco de Gasto del Sector Tecnologías de la Información y las Comunicaciones.

Artículo 311. Contraprestaciones a cargo de los operadores postales

Adiciónese el Parágrafo 3° al artículo 14 de la Ley 1369 de 2009, así:

Parágrafo 3°. La contraprestación periódica de que trata este artículo y el valor que deben pagar los operadores postales para ser inscritos en el Registro de Operadores Postales o renovar su inscripción podrá pagarse mediante la ejecución de obligaciones de hacer, que serán previamente autorizadas por el Ministerio de Tecnologías de la Información y las Comunicaciones, de acuerdo con la reglamentación que este defina al respecto. Estas obligaciones deberán ejecutarse mediante proyectos que permitan masificar el acceso universal a Internet en todo el territorio nacional, a través del aprovechamiento de las redes postales, que beneficie a población pobre y vulnerable, o en zonas apartadas. Las inversiones por reconocer serán determinadas por el Ministerio de Tecnologías de la Información y las Comunicaciones. Estas obligaciones contarán con una supervisión o interventoría técnica, administrativa y financiera a cargo del Ministerio, que garantice transparencia y cumplimiento de las obligaciones de hacer. Los recursos necesarios para financiar la supervisión o interventoría deberán ser garantizados por el Fondo de Tecnologías de la Información y las Comunicaciones, o quien haga sus veces.

La ejecución de las obligaciones de hacer de que trata el presente artículo, por parte de los operadores postales, no implica la modificación de la clasificación legal de los servicios postales para los cuales se encuentra habilitado conforme lo define la Ley 1369 de 2009. Esto incluye el cumplimiento de todas las demás obligaciones de origen legal, reglamentario, regulatorio, aplicables al servicio.

 SUBSECCIÓN 7. EQUIDAD PARA LA EFICIENTE PRESTACIÓN DEL SERVICIO PÚBLICO DE ENERGÍA EN LA COSTA CARIBE

Artículo 314. Declarado INEXEQUIBLE mediante Sentencia de la Corte Constitucional C-464 de 2020.

Artículo 315. Sostenibilidad del Servicio Público mediante la asunción de pasivos

Con el fin de asegurar la prestación eficiente y sostenible del servicio público de distribución y comercialización de electricidad en la Costa Caribe del país, en desarrollo del artículo 365 de la Constitución Política, autorícese a la Nación a asumir directa o Indirectamente el pasivo pensional y prestacional, así como el pasivo de Electrificadora del Caribe S.A. E.S.P. asociado al Fondo Empresarial de la siguiente manera:

i) el pasivo pensional y prestacional correspondiente a la totalidad de las pensiones y cesantías, ciertas o contingentes, pagaderas a los pensionados de Electrificadora del Caribe S.A. E.S.P. y a las obligaciones convencionales, ciertas o contingentes, adquiridas por la causación del derecho a recibir el pago de la pensión convencional de jubilación y/o legal de vejez;

ii) el pasivo de Electrificadora del Caribe S.A. E.S.P. con el Fondo Empresarial correspondiente a las obligaciones en las cuales el Fondo haya incurrido o incurra, incluyendo garantías emitidas.

Parágrafo 1°. Para viabilizar el desarrollo de esta Subsección, autorícese a la Nación para constituir patrimonios autónomos, fondos necesarios para tal efecto, o una o más sociedades por acciones cuyo objeto principal sea adelantar las operaciones actualmente adelantadas por Electrificadora del Caribe S.A. E.S.P., para lo cual sus patrimonios podrán estar integrados, entre otros, por los activos de Electrificadora del Caribe S.A. E.S.P. Estas sociedades que el Gobierno nacional decida constituir serán empresas de servicios públicos domiciliarios, sometidas a la Ley 142 de 1994 y demás normas complementarias, vinculadas al Ministerio de Hacienda y Crédito Público, con domicilio en la Costa Caribe. Su denominación y demás requisitos de estructura orgánica serán definidos por el Gobierno nacional. Los activos de estos podrán incluir, entre otras, rentas, tasas, contribuciones, recursos del Presupuesto General de la Nación, y las demás que determine el Gobierno nacional tales como los derechos litigiosos, cuentas por cobrar de la Nación y otras entidades públicas a Electrificadora del Caribe S.A. E.S.P. y/o a los causantes de la necesidad de la toma de posesión.

Parágrafo 2°. Para la gestión y el pago del pasivo pensional y prestacional, la Nación – Superintendencia de Servicios Públicos Domiciliarios, mediante la celebración de un contrato de fiducia mercantil, constituirá el patrimonio autónomo – Foneca cuyo objeto será recibir y administrar los recursos que se transfieran, así como, pagar el pasivo pensional y prestacional, como una cuenta especial, sin personería jurídica cuyos recursos serán administrados por quien determine el Gobierno nacional. Los recursos y los rendimientos de este fondo tendrán destinación específica para pagar el pasivo pensional y prestacional, así como los gastos de administración del patrimonio autónomo. Los recursos que el Foneca pueda recibir como consecuencia de un proceso de vinculación de capital para la operación de la prestación del servicio de energía eléctrica en la Costa Caribe, se transferirán directamente al patrimonio autónomo sin que se requiera operación presupuestal para tales efectos.

Parágrafo 3°. La Nación, el Fondo Empresarial o cualquier entidad del orden nacional, podrán llevar a cabo los actos necesarios para cumplir con los objetivos aquí planteados, incluyendo, entre otros, la cancelación de garantías y la condonación de obligaciones y los demás modos de extinción de las obligaciones. La asunción de los pasivos en los términos de esta Subsección no requerirá autorizaciones adicionales a las aquí previstas.

Parágrafo 4°. Ninguna actuación por parte de la Nación, la SSPD o el Fondo Empresarial desplegada para el cumplimiento de lo dispuesto en los artículos de esta Subsección, podrá interpretarse como reconocimiento de su responsabilidad por la situación de Electrificadora del Caribe S.A. E.S.P. ni como una renuncia a obtener cualquier indemnización frente a los responsables de los perjuicios causados, lo anterior teniendo en cuenta la situación financiera y operativa de la citada que dieron origen al proceso de toma de posesión que se adelanta por la SSPD, con el fin de salvaguardar la prestación del servicio de energía eléctrica en los 7 departamentos de la Costa Atlántica.

  Artículo 316. Términos y condiciones de las medidas de sostenibilidad

Como contraprestación por la asunción de los pasivos la Nación – Ministerio de Hacienda y Crédito Público directa o indirectamente adquirirá una o más cuentas por cobrar a cargo de Electrificadora del Caribe S.A. E.S.P. El Conpes determinará: a) el monto de las cuentas por cobrar con base en el concepto previo emitido por la Dirección General de Regulación Económica de la Seguridad Social del MHCP, a partir de la información que reciba del agente interventor de Electricaribe S.A. E.S.P., en cuanto al pasivo pensional y al pasivo prestacional, y de la SSPD en cuanto al pasivo asociado al Fondo Empresarial; b) los mecanismos para actualizar dichos montos hasta la fecha efectiva de la asunción del pasivo previsto en esta Subsección.

El Gobierno nacional reglamentará los términos y condiciones de la asunción de pasivos y aquellos aspectos conexos de la vinculación de capital privado, público o mixto, a través de uno o varios oferentes, a la solución estructural de la prestación del servicio público de energía eléctrica en la Costa Caribe en el marco de esta Subsección. La eventual insuficiencia de las fuentes de pago de las deudas de Electrificadora del Caribe S.A. E.S.P. con la Nación o el Fondo Empresarial, se entenderán como gastos necesarios para asegurar la prestación eficiente del servicio público de distribución y comercialización de electricidad en la Costa Caribe del país. En consecuencia, dicha gestión no se enmarcará en lo dispuesto por el artículo 6° de la Ley 610 de 2000 para servidores y contratistas del Estado o las normas que la modifiquen, por cuanto obedecen al cumplimiento de los cometidos y de los fines esenciales del Estado. Lo anterior sin perjuicio de las reclamaciones que pueda instaurar la nación y otras entidades públicas para el cobro de las indemnizaciones que correspondan contra Electrificadora del Caribe S.A. E.S.P. y/o a los causantes de la necesidad de la toma de posesión.

Los documentos relacionados con la asunción de la deuda y el desarrollo del objeto de esta ley inciden en la estabilidad macroeconómica y financiera del país y se considerarán estudios técnicos de valoración de los activos de la Nación. En caso de que la asunción de los pasivos de los que trata el artículo anterior, se dé en virtud de un proceso de vinculación de capital privado, público o mixto, el Consejo de Ministros o una comisión conformada por dicho órgano, podrá determinar un valor de referencia a partir del cual se habilita la asunción de pasivos para el caso en que ello esté ligado a un proceso de vinculación de capital, que estará sujeto a reserva. El Gobierno nacional podrá decidir que dicha reserva se levante en cualquier momento del curso del proceso de vinculación de capital, o en un momento posterior.

La cuenta por cobrar que corresponda al pasivo pensional y al pasivo prestacional tendrá prelación sobre la parte de la cuenta por cobrar que corresponda al pasivo asociado al Fondo Empresarial. Por tratarse de medidas de salvamiento, estas cuentas por cobrar tendrán prelación en su pago sobre todos los pasivos a cargo de Electrificadora del Caribe S.A. E.S.P.

Parágrafo 1°. Sin perjuicio de las cuentas por cobrar y las acciones indemnizatorias a las que haya lugar, una vez asumidos los pasivos, para viabilizar la sostenibilidad de las nuevas empresas prestadoras de servicios públicos, la Nación-MHCP, o quien esta determine, será el único deudor frente a los acreedores de las deudas asumidas, sin que se predique solidaridad.

Parágrafo 2°. El reconocimiento y pago de los derechos pensionales y prestacionales que sea asumido directa o indirectamente por la Nación de conformidad con esta ley, seguirán rigiéndose por las normas vigentes sobre la materia. En todo caso para garantizar el derecho fundamental a la seguridad social y la sostenibilidad del Fondo Empresarial, la Nación-MHCP será el garante subsidiario de dichos pasivos.

Artículo 317. Preservación del servicio

Para la preservación del servicio son aplicables al desarrollo de esta Subsección, los artículos 38 y 61 de la Ley 142 de 1994. En consecuencia, los actos jurídicos mediante los cuales se implemente el objeto de esta subsección no se afectarán como consecuencia de la ineficacia que pueda declararse respecto de los demás actos relacionados con la toma de posesión o liquidación de Electrificadora del Caribe S.A. E.S.P. Esto incluye los actos necesarios para asegurar la continuidad en la prestación del servicio público domiciliario, en razón a la situación de la empresa al momento de la intervención incluyendo una eventual capitalización de Electrificadora del Caribe S.A. E.S.P. (o las sociedades creadas en el marco de la toma de posesión), la cual se autoriza mediante lo aquí dispuesto, el pago por parte de uno o varios particulares a Electrificadora del Caribe S.A. E.S.P, o cualquier solución empresarial que se adopte para garantizar la prestación del servicio de energía eléctrica en el corto, mediano y largo plazo.

Para efectos del proceso de vinculación de capital que se efectúe en desarrollo de esta Subsección, no causarán tasa, contribución o impuestos de cualquier orden, los siguientes actos:

a) Las actuaciones llevadas a cabo por entidades públicas o por particulares, o los efectos percibidos por las mismas, en desarrollo de lo previsto en los artículos anteriores de esta Subsección, excluyendo las actividades para la operación de Electricaribe S.A. E.S.P. o la operación de las sociedades que se creen para la prestación del servicio público de electricidad en la Costa Caribe;

b) La constitución y la realización de aportes a las sociedades que se lleguen a constituir como parte del proceso de adopción de medidas para asegurar la prestación eficiente del servicio público de distribución y comercialización de electricidad en la Costa Caribe; y

c) La enajenación de acciones de los vehículos jurídicos que se desarrollen o constituyan en el marco del proceso de adopción de medidas para asegurar la prestación eficiente del servicio público de distribución y comercialización de electricidad en la Costa Caribe para la vinculación de un Inversionista.

Electrificadora del Caribe S.A. E.S.P. podrá realizar, mediante documento privado, un listado individualizado de los bienes inmuebles que considere transferir a terceros, incluyendo los vehículos que se constituyan en el marco del proceso de toma de posesión de Electrificadora del Caribe S.A. E.S.P. Dicho listado será el título suficiente para llevar a cabo la tradición de los Inmuebles, la cual se perfeccionará con la inscripción de dicho listado en las respectivas oficinas de instrumentos públicos.

El registro de cualquiera de estos actos no causará el Impuesto de registro.

Parágrafo 1°. Cualquier transferencia de activos que Electrificadora del Caribe S.A. E.S.P. lleve a cabo a favor de cualquier vehículo jurídico que se desarrolle o constituya en el marco del proceso de toma de posesión de esta sociedad, no estará sujeta a las normas sobre la transferencia de establecimientos de comercio establecidas en los artículos 525 y siguientes del Código de Comercio.

Parágrafo 2°. Las disposiciones tributarias a las que se refiere este artículo, no se aplicarán a las actividades propias de la operación y la prestación del servicio público de energía por parte de Electricaribe S.A. E.S.P. o de las sociedades que se creen para la prestación del servicio público de electricidad en la Costa Caribe.

Parágrafo 3°. Las Comisiones Cuartas Permanentes Constitucionales de Cámara y Senado designarán a dos representantes de cada una de esas Comisiones para adelantar el seguimiento y la implementación de lo señalado en el presente artículo.

  Artículo 318. Régimen transitorio especial para asegurar la sostenibilidad de la prestación eficiente del servicio

Con el fin de asegurar la prestación eficiente y sostenible del servicio público domiciliario de energía eléctrica en la Costa Caribe, teniendo en cuenta el estado de Electricaribe S.A. E.S.P. al momento de su Intervención, autorícese al Gobierno nacional para establecer un régimen transitorio especial en materia tarifaria para las actividades de distribución y comercialización del actual mercado de Electrificadora del Caribe S.A. E.S.P. o las empresas derivadas de Electrificadora del Caribe S.A. E.S.P. que se constituyan en el marco del proceso de toma de posesión de esta sociedad para las regiones en las se preste el servicio público. Para estos efectos, los límites en la participación de la actividad de comercialización de energía eléctrica podrán ser superiores hasta en diez puntos porcentuales adicionales al límite regulatorio corriente.

Este régimen regulatorio especial deberá establecer que la variación en las tarifas para esta región sea al menos igual a la variación porcentual de tarifas del promedio nacional, en la medida en que refleje, como mínimo, las inversiones realizadas, el cumplimiento de las metas de calidad y de reducción de pérdidas. El Gobierno nacional definirá el plazo máximo de aplicación del este régimen transitorio especial.

Parágrafo 1°. Con recursos provenientes del sistema general de regalías se podrán financiar inversiones en infraestructura eléctrica, como aportes que no incidirán en la tarifa.

Parágrafo 2°. Las entidades estatales que sean deudoras de Electricaribe S.A. E.S.P. deberán tomar las medidas necesarias para cumplir con las obligaciones que se derivan del servicio público de energía. El incumplimiento por parte de cualquier entidad estatal de sus deberes como usuarios de servicios públicos, especialmente en lo relativo a la incorporación en los respectivos presupuestos de apropiaciones suficientes y al pago efectivo de los servicios utilizados, es causal de mala conducta para sus representantes legales y los funcionarios responsables, sancionable con destitución.

SUBSECCIÓN 8. EQUIDAD EN MATERIA AMBIENTAL

Artículo 319. Pago por servicios ambientales en territorios indígenas

Modifíquese el inciso segundo del artículo 3° del Decreto-ley 870 de 2017 y adiciónense dos Parágrafos, así:

El Gobierno nacional y las organizaciones indígenas que asisten a la Mesa Permanente de Concertación (MPC) construirán de manera conjunta la propuesta de reglamentación de Pago por Servicios Ambientales (PSA) y otros incentivos de conservación para los pueblos y comunidades indígenas, y radicarán esta propuesta ante la MPC una vez entre en vigencia la Ley del Plan Nacional de Desarrollo (PND), para incluir su respectivo proceso de consulta previa con los pueblos y organizaciones indígenas.

Parágrafo 1°. El presente artículo, se interpretará sin detrimento del derecho a la consulta previa sobre el PSA e incentivos a la conservación para los demás grupos étnicos del país.

Parágrafo 2°. Aplicación del incentivo de Pago por Servidos Ambientales (PSA) en territorios de Pueblos Indígenas. Para el diseño e implementación de PSA en territorios indígenas de que trata el artículo 3° de Decreto-ley 870 de 2017, se aplicará con carácter transitorio lo dispuesto por el Decreto 1007 de 2018 y las normas que les modifiquen o complementen, y adicionalmente se tendrán en cuenta las siguientes consideraciones:

1. Los Proyectos de PSA en territorios indígenas serán de carácter voluntario entre las partes, reconocerán las prácticas tradicionales de producción, estarán en armonía con los instrumentos de planificación propios y garantizarán la adecuada participación, autonomía y libre autodeterminación de las comunidades indígenas.

2. Los pueblos indígenas serán beneficiarios del incentivo de manera colectiva de acuerdo a los procedimientos que de manera autónoma se establezcan en sus territorios.

3. La concertación en el marco del PND 2018-2022 sobre el incentivo de PSA servirá de marco para el diseño e implementación de proyectos específicos de PSA en territorios indígenas.

  Artículo 320. Aplicación del incentivo de Pago por Servicios Ambientales (PSA) en consejos comunitarios u organizaciones de base de Comunidades Negras, Afrocolombianas, Raizales y Palenqueras

Para el diseño e implementación de proyectos de PSA en sus territorios de que trata el artículo 3° del Decreto-ley 870 de 2017, se aplicará lo establecido por el Decreto 1007 de 2018 y las normas que le modifiquen o complementen, y adicionalmente se tendrán en cuenta las siguientes consideraciones:

1. Los proyectos de PSA en territorios de comunidades negras, afrodescendientes, raizales y palenqueras serán de carácter voluntario entre las partes, reconocerán las prácticas tradicionales de producción, estarán en armonía con los instrumentos de planificación propios y garantizarán la adecuada participación, autonomía y libre autodeterminación de las comunidades étnicas.

2. Las comunidades negras, afrocolombianas, raizales y palenqueras serán beneficiarias del incentivo de manera colectiva de acuerdo con los procedimientos que de manera autónoma se establezcan en sus territorios.

3. La consulta previa del presente articulado sobre el incentivo de pago por servicios ambientales servirá de marco para el diseño e implementación de proyectos específicos de pago por servicios ambientales en territorios de las comunidades negras, afrocolombianas, raizales y palenqueras.

 Artículo 321. Actualización del valor de la inversión de no menos del 1%, de competencia de la Autoridad Nacional de Licencias Ambientales (ANLA)

Todos aquellos titulares de una licencia ambiental que tengan inversiones pendientes a la fecha de promulgación de la presente ley, relativas a la inversión forzosa de no menos del 1% de que trata el Parágrafo del artículo 43 de la Ley 99 de 1993, podrán acogerse al porcentaje de incremento del valor de la base de liquidación de la inversión forzosa de no menos del 1%, según el año de inicio de actividades autorizadas en la licencia ambiental, de acuerdo con lo señalado en la siguiente tabla:

Año de inicio de actividades                                       Porcentaje de incremento del valor

autorizadas en la Licencia Ambiental                      de la base de liquidación de la inversión

                                                                                              forzosa de no menos del 1%

1993-2000                                                                         45%

2001-2006                                                                         35%

2007-2018                                                                         10%

Las inversiones ejecutadas o que estén en proceso de ejecución en el marco de un plan de inversión del 1% aprobado por la Autoridad Nacional de Licencias Ambientales (ANLA), no serán tenidas en cuenta para efectos del cálculo de la actualización del valor de la base de liquidación de la inversión del 1%.

Para acogerse deberán presentar la solicitud dentro de los seis (6) meses siguientes a la promulgación de la presente ley, junto con:

a) el certificado que soporta el cálculo de la base de liquidación;

b) el plan de inversión con la base actualizada aplicando el porcentaje de incremento definido en la tabla anterior;

c) la proyección financiera para la ejecución del plan de inversión y

d) el cronograma del plan de inversión del 1% con inicio de ejecución no superior a los seis (6) meses siguientes de la aprobación de la solicitud de acogimiento.

En caso de no ejecutar las inversiones de acuerdo con el cronograma, por un tiempo superior a un año fiscal, deberán actualizar los valores no ejecutados, de acuerdo con la fórmula señalada en el Parágrafo 1° del presente artículo.

Para los que se acojan o no al presente artículo y los nuevos titulares de licencia, la liquidación de la inversión se realizará de conformidad con los siguientes ítems:

a) adquisición de terrenos e inmuebles,

b) obras civiles,

c) adquisición y alquiler de maquinaria y equipo utilizado en las obras civiles y

d) constitución de servidumbres.

Los costos y gastos, incluidos los capitalizados en el activo, a que se refieren los literales anteriores, corresponden a los realizados en las etapas previas a la producción de proyectos, obras o actividades sujetos de licenciamiento ambiental o aquellas modificaciones de proyectos, obras o actividades que tengan como instrumento de control un plan de manejo ambiental, siempre y cuando dicha modificación cumpla con las condiciones establecidas en la reglamentación vigente.

Parágrafo 1°. Para aquellos que no se acojan al presente artículo, deberán presentar la actualización de la base de inversión del 1% de los valores no ejecutados, dentro de los siete (7) meses siguientes a la promulgación de la presente ley, junto con: a) el certificado que soporta la actualización del cálculo de la base de liquidación, b) el plan de inversión con la base actualizada aplicando la fórmula del presente Parágrafo, c) la proyección financiera para la ejecución del plan de inversión y d) el cronograma del plan de inversión del 1% con inicio de ejecución no superior a los seis (6) meses siguientes de la aprobación del plan de inversión actualizado. El incremento de la actualización de la base de liquidación de la inversión forzosa de no menos del 1%, será calculado así:

VBL = VIRa *(IPC actual/ IPC inicial), donde, VBL (Valor de la base de liquidación): es el valor en pesos (COP) de la base de liquidación de la inversión forzosa del 1% certificado de acuerdo con lo señalado en el Parágrafo 3 del presente artículo, actualizada al mes de diciembre del año anterior a la fecha de presentación de la actualización.

VIRa (Valor de la Inversión realizada para cada año): es el valor en pesos (COP) correspondiente a las inversiones realizadas del proyecto para cada año, durante su ejecución.

IPC actual: corresponde al último valor del IPC a diciembre del año anterior reportado por el DAÑE, en índice – serie de empalme, con respecto a la fecha de presentación del plan de inversiones actualizado ante la ANLA.

IPC inicial: corresponde al valor del IPC reportado por el DANE, en índice – serie de empalme, para el año en el que se ejecutó la inversión o actividad del proyecto, tomando el que corresponda al mes de diciembre.

El valor total de la base actualizada de liquidación de la Inversión de no menos del 1% será la sumatoria de los VBL de cada año. Las inversiones ejecutadas o que estén en proceso de ejecución en el marco de un plan de inversión del 1% aprobado por la ANLA, no serán tenidas en cuenta para efectos del cálculo de la actualización del valor de la base de liquidación de la inversión del 1%. La actualización del valor de la base de liquidación del 1% deberá ser realizada con corte a 31 de diciembre de cada año fiscal y deberá ser presentada a más tardar a 31 de marzo del año siguiente.

Parágrafo 2°. Para los titulares de licencias ambientales expedidas a partir del primero de enero de 2019, que no ejecuten las inversiones obligatorias del 1% en los años definidos en el cronograma del plan de inversiones aprobado por la ANLA, deberán actualizar los valores no ejecutados, de acuerdo con la fórmula señalada en el Parágrafo 1° del presente artículo.

Parágrafo 3°. El certificado de la base de liquidación será suscrito por el revisor fiscal o contador público, según el caso, o mediante documento equivalente firmado por el representante legal de la empresa, cuyo contenido se presumirá veraz en virtud del principio constitucional de buena fe, sin perjuicio de la posibilidad de ejercer las acciones legales procedentes en caso de falta de veracidad de la información.

Artículo 322. Reforestación con árboles nativos

Los programas de reforestación propuestos por el Gobierno nacional deberán dar prioridad a la siembra de árboles nativos con esquemas de georreferenciación.

Artículo 323. Plan Maestro de erosión costera

El Gobierno nacional implementará el “Plan Maestro de Erosión Costera” para la recuperación de playas, ecosistemas marinos y de manglares como estrategia de fortalecimiento, fomento y promoción del turismo, que a su vez permita contrarrestar el devastador efecto que produce la erosión costera en el litoral Caribe, litoral Pacífico y en el archipiélago de San Andrés, Providencia y Santa Catalina.

Adicionalmente, se deberán crear estrategias que permitan identificar, cuantificar, priorizar y recuperar los ecosistemas afectados como herramienta de desarrollo ambiental, turístico y económico, además de cumplir con la responsabilidad que en materia ambiental deben tener el Estado y sus entidades descentralizadas, fomentando la inclusión del sector privado.

  Artículo 324. Política de Protección y Bienestar de animales domésticos y silvestres

El Gobierno nacional, bajo el liderazgo del Ministerio de Ambiente y Desarrollo Sostenible, con la participación del Ministerio de Salud y la Protección Social, Ministerio de Agricultura y Desarrollo Rural, Ministerio del Interior, Departamento Nacional de Planeación y demás entidades competentes, formulará la Política Nacional de Protección y Bienestar de Animales Domésticos y Silvestres, para lo cual tendrá un plazo de seis (6) meses contados a partir de la expedición de la presente ley.

Esta política establecerá lineamientos en materia de bienestar de animales de granja; animales en situación de calle; animales maltratados; especies silvestres objeto de tráfico ilegal; entre otros, y definirá estrategias, programas y propuestas de normatividad para la protección animal, tales como la formación en tenencia responsable; las campañas de esterilización; la creación de centros territoriales de bienestar, la rehabilitación y asistencia integral de fauna doméstica y silvestre; la sustitución progresiva de vehículos de tracción animal; y el fortalecimiento de la investigación y procesamiento de los delitos contra los animales, con el fin de erradicar en el país toda forma de violencia, crueldad, tráfico y comercio ilegal de animales.

  Artículo 325. Trámite solicitudes de formalización de minería tradicional.

Las personas naturales, grupos o asociaciones que presentaron solicitud de formalización de minería tradicional hasta el 10 de mayo de 2013 ante la autoridad minera competente y que a la fecha de promulgación de esta ley se encuentran vigentes y en área libre, continuarán su trámite con el fin de verificar la viabilidad técnica del desarrollo del proyecto minero de pequeña minería. Si la solicitud no se encuentra en área libre esta se rechazará salvo lo dispuesto en el inciso tercero del presente artículo. En caso de que la superposición sea parcial se procederá a los recortes respectivos. La autoridad minera resolverá estas solicitudes en el término de un (1) año contado a partir de la viabilidad técnica de la solicitud.

Una vez verificada la viabilidad de la solicitud, la autoridad minera requerirá al solicitante para que presente en un plazo máximo de cuatro (4) meses el Programa de Trabajos y Obras (PTO) a ejecutar y la licencia ambiental temporal para la formalización en los términos del artículo 22 de esta ley, so pena de entender desistido el trámite de formalización. En caso de que se formulen objeciones al PTO y estas no sean subsanadas se procederá al rechazo de la solicitud. Una vez aprobado el PTO y el Plan Manejo Ambiental (PMA) o licencia ambiental temporal se procederá con la suscripción del contrato de concesión.

En el evento en que las solicitudes de formalización de minería tradicional se hayan presentado en un área ocupada totalmente por un título minero y se encuentre vigente a la fecha de promulgación de la presente ley, la autoridad minera procederá a realizar un proceso de mediación entre las partes. De negarse el titular minero a la mediación o de no lograrse un acuerdo entre las partes, se procederá por parte de la autoridad minera al rechazo de la solicitud de formalización.

A partir de la promulgación de esta ley y mientras no se resuelva de fondo el trámite de la solicitud de formalización de minería tradicional no habrá lugar a la aplicación de las medidas previstas en los artículos 161 y 306 de la Ley 685 de 2001, ni a proseguir las acciones penales señaladas en los artículos 159 y 160 de esta misma ley, sin perjuicio de la aplicación de las medidas preventivas y sancionatorias de carácter ambiental, así como las relacionadas con la seguridad minera.

Artículo 326. Requisitos diferenciales para contrato de concesión minera.

El Gobierno nacional definirá los requisitos diferenciales para el otorgamiento del contrato de concesión a los mineros de pequeña escala, beneficiarios de devolución de área y comunidades étnicas. Así mismo, el Ministerio de Ambiente y Desarrollo Sostenible establecerá los términos de referencia diferenciales para la elaboración del estudio de impacto ambiental requerido para el licenciamiento ambiental a estos proyectos mineros.

Los mineros de pequeña escala, los beneficiarios de devolución de áreas y las comunidades étnicas una vez suscriban el contrato de concesión minera, contarán con un acompañamiento técnico integral y serán objeto de fiscalización diferencial.

En los contratos de concesión de comunidades étnicas en zonas mineras declaradas, el canon superficiario se pagará anualmente de manera anticipada, sobre la totalidad del área de la concesión y de acuerdo con los siguientes valores, siempre y cuando la actividad sea desarrollada por la misma comunidad.

NÚMERO DE HECTÁREAS                             SMDLV/h* 

0-150                                                                   0.125

151-5.000                                                          0.19

5.001 – 10.000                                                  0.25

Artículo 327. Minería de Subsistencia.

Los mineros de subsistencia, definidos por el Gobierno nacional, sólo requerirán para el desarrollo de su actividad la inscripción personal y gratuita ante la alcaldía del municipio donde realizan la actividad y de efectuarse en terrenos de propiedad privada deberá obtener la autorización del propietario. La alcaldía del municipio donde se realiza la actividad minera podrá mediar en la obtención de dicha autorización. En la minería de subsistencia se entienden incluidas las labores de barequeo.

La minería de subsistencia no comprende la realización de actividades subterráneas, hacer uso de maquinaria o explosivos, ni puede exceder los volúmenes de producción señalados por el Ministerio de Minas y Energía. Para el ejercicio de esta actividad los mineros deberán cumplir con las restricciones establecidas en los artículos 157 y 158 de la Ley 685 de 2001.

Los municipios deberán implementar la validación biométrica en el Sistema Automatizado de Identificación Dactilar de la Registraduría Nacional del Estado Civil, con el fin de verificar la plena identidad de los mineros de subsistencia al momento de la inscripción.

La inscripción deberá realizarse con el cumplimiento de los siguientes requisitos:

i) Presentación de la cédula de ciudadanía;

ii) Registro Único Tributario con Indicación específica de la actividad económica relacionada con la actividad minera,

 iii) Certificado de afiliación a Sisbén, o el documento que haga sus veces;

iv) Indicación del mineral objeto de explotación;

v) Descripción de la actividad y la indicación de la zona donde se va a realizar (municipio, corregimiento, caserío, vereda, río).

Estos mineros no podrán estar inscritos en más de un municipio a la vez, en cuya jurisdicción deberán realizar la actividad. La inscripción deberá ser renovada anualmente de manera personal, y la información podrá ser actualizada por los mineros en cualquier tiempo, en caso de efectuarse un cambio en la ejecución de la actividad. Los mineros que se encuentren inscritos contarán con el término de seis (6) meses para renovar su inscripción con el cumplimiento de los requisitos antes establecidos.

La inscripción de los mineros de subsistencia deberá realizarse por los municipios en el sistema de información que para el efecto disponga el Ministerio de Minas y Energía.

Los alcaldes vigilarán el cumplimiento de lo dispuesto en este artículo e impondrán las medidas a que haya lugar, sin perjuicio de las medidas preventivas y sancionatorias que imponga la autoridad ambiental para la prevención o por la comisión de un daño ambiental de acuerdo con lo dispuesto en la Ley 1333 de 2009, o la norma que la modifique, adicione o sustituya.

El alcalde se abstendrá de inscribir o cancelará la inscripción del minero de subsistencia en los siguientes eventos:

a) Si la actividad se realiza en zonas excluidas o prohibidas de las actividades mineras;

b) Si la actividad no se realiza con las restricciones establecidas en los artículos 157 y 158 de la Ley 685 de 2001;

c) Si la actividad se realiza en un lugar diferente al señalado en la inscripción;

d) Cuando exceda los volúmenes de producción señalados por el Ministerio de Minas y Energía o la autoridad competente;

e) Cuando utilice maquinaria, equipos mecanizados o explosivos para el arranque de los minerales;

f) Si las actividades se realizan de manera subterránea;

g) Cuando extraiga un mineral diferente al establecido en la inscripción.

Al minero de subsistencia que se le cancele la inscripción no podrá inscribirse ante cualquier municipio por un término de seis (6) meses. De no cumplirse con los requisitos exigidos en este artículo para el desarrollo de la minería de subsistencia, los mineros se considerarán explotadores ilícitos de yacimientos mineros en los términos del Código Penal Colombiano o la norma que lo modifique o sustituya.

PARÁGRAFO 1°. La autoridad minera brindará las herramientas de actualización de la plataforma de inscripción de mineros de subsistencia, con las necesidades de información que requieran los municipios para llevar a cabo las labores de inscripción conociendo las restricciones en tiempo real.

PAR 2°. En las zonas de minería de subsistencia, la DIAN implementará, en coordinación con las autoridades territoriales, campañas para agilizar el registro del RUT para los explotadores mineros.

ARTÍCULO 328. ESTÁNDAR COLOMBIANO PARA EL REPORTE PÚBLICO DE RESULTADOS DE EXPLORACIÓN, RECURSOS Y RESERVAS MINERALES. Con ocasión de las actividades de exploración y explotación minera, para la presentación de la información de los recursos y reservas existentes en el área concesionada, se adopta el Estándar Colombiano para el Reporte Público de Resultados de Exploración, Recursos y Reservas Minerales de la Comisión Colombiana de Recursos y Reservas Minerales, o cualquier otro estándar internacionalmente reconocido por Committe for Mineral Reserves International Reporting Standards (Crirsco), para su presentación. La información sobre los recursos y reservas existentes en el área concesionada estructurada en las condiciones previstas en el mencionado estándar, debe presentarse por el titular minero junto con el Programa de Trabajos y Obras o el documento técnico correspondiente o su actualización, sin perjuicio de que dicha información pueda ser requerida por la autoridad minera en cualquier momento durante la etapa de explotación.

La autoridad minera expedirá los términos de referencia que establezcan, entre otros aspectos, condiciones y periodicidad para la presentación de la información de que trata el presente artículo, y su incumplimiento dará lugar a las multas previstas en el artículo 115 del Código de Minas o la norma que lo modifique o sustituya. La información suministrada por los titulares mineros será divulgada y usada por parte de la autoridad minera, en los términos del artículo 88 del Código de Minas o la norma que lo modifique o sustituya.

ARTÍCULO 329. INTEGRACIÓN DE ÁREAS. Adiciónese el Parágrafo segundo al artículo 101 de la Ley 685 de 2001, así:

Parágrafo 2°. En el evento en que una solicitud de integración de áreas o un trámite de integración ya iniciado o un título ya integrado, presente franjas o corredores respecto de los cuales se hubieren presentado propuestas de contrato de concesión y estas no resulten viables para la realización de un proyecto minero, la autoridad minera procederá a su rechazo. En este evento, las respectivas franjas o corredores se incorporarán al contrato que resulte de la integración de áreas o a los contratos otorgados antes de la vigencia de esta ley en virtud de una integración de áreas. En todo caso, la integración de áreas y las incorporaciones de corredores se realizarán de acuerdo con la metodología del sistema de cuadrículas.

La autoridad minera nacional definirá el área mínima para las franjas o corredores donde no es viable realizar un proyecto minero de acuerdo con las dimensiones adoptadas por el sistema de cuadrícula para las celdas mineras.

Artículo 330. Monto de la regalías para reconocimientos de propiedad privada

Establézcanse para las regalías de que trata el inciso 2° del artículo 227 del Código de Minas, por la explotación de recursos naturales no renovables de propiedad privada, sobre el valor de la producción en boca o borde de mina según corresponde para cada explotación, los siguientes porcentajes:

Mineral y Tipo de Minería                                                          Regalía

Carbón a cielo abierto con producción

igual o mayor a 3 millones de toneladas anuales               3,27%

Carbón a cielo abierto con producción menor a

3 millones de toneladas anuales                                              1,64%

Oro y plata veta                                                                              0,4%

Oro y Plata aluvión                                                                        2,0%

Platino                                                                                                1.0 %

El precio base para la liquidación de regalías generadas por cada explotación u operación minera del carbón se calculará anualmente según la producción y se regirá según lo establecido en el artículo 15 de la Ley 1530 de 2012.

El titular de las minas de Reconocimiento de Propiedad Privada, deberá declarar, liquidar y demostrar el pago de las regalías de cada explotación u operación minera a partir del 2019 ante la Agencia Nacional de Minería, de conformidad con lo señalado en el presente artículo.

La Agencia Nacional de Minería deberá recaudar y transferir las regalías generadas por cada explotación u operación minera de los recursos naturales no renovables de propiedad privada, conforme lo estipulado en la Ley 1530 de 2012 y demás normas que la modifiquen o adicionen a partir de 2019.

Para la aplicación del porcentaje para las explotaciones con producción igual o mayor a 3 millones de toneladas anuales se establece un periodo de transición de tres (3) años para permitir un aumento escalonado y progresivo.

SECCIÓN IV. FACULTADES EXTRAORDINARIAS

Artículo 331. Modernización y eficiencia de las Entidades Públicas del Sector Financiero.

De conformidad con lo establecido en el artículo 150, numeral 10, de la Constitución Política, revístase al Presidente de la República de precisas facultades extraordinarias, por el término de seis (6) meses, contados a partir de la fecha de publicación de la presente ley, para:

Fusionar entidades públicas del sector financiero, tales como, Aseguradoras Públicas y Fiduciarias Públicas; con el fin de evitar duplicidades y crear una entidad de la Rama Ejecutiva del orden nacional responsable de la gestión del servicio financiero público que incida en mayores niveles de eficiencia.

Artículo 332. Reestructuración de la Contraloría General de la República

De conformidad con lo establecido en el artículo 150, numeral 10, de la Constitución Política, revístase al Presidente de la República de precisas facultades extraordinarias, por el término de seis (6) meses, contados a partir de la fecha de publicación de la presente ley, para:

Reestructurar jerárquica y funcionalmente la Contraloría Delegada para el Sector Defensa, Justicia y Seguridad, la Contraloría Delegada para el Sector Social, la Contraloría Delegada para el Sector Infraestructura Física y Telecomunicaciones, Comercio Exterior y Desarrollo Regional, la Contraloría Delegada para Investigaciones, Juicios Fiscales y Jurisdicción Coactiva, la Gerencia de Gestión Administrativa y Financiera, la Contraloría Delegada para la Participación Ciudadana, la Unidad de Investigaciones Especiales contra la Corrupción y la Unidad Delegada para el Posconflicto, y crear la Dirección de Información, Análisis y Reacción Inmediata, en la Contraloría General de la República, para lo cual podrá desarrollar la estructura de la entidad, creando nuevas dependencias, modificar o establecer sus funciones y su planta de personal creando los empleos a que haya lugar.

Parágrafo 1°. La Gerencia Administrativa y Financiera tiene la función de dirigir y controlar las actividades y procesos de contratación administrativa, para lo cual ordenará el gasto y suscribirá los actos, contratos y convenios requeridos para el funcionamiento de la entidad.

Parágrafo 2°. El Fondo de Bienestar Social de la Contraloría General de la República podrá contratar seguro de vida colectivo con cobertura general, para los servidores de la Contraloría General de la República.

Artículo 333. Supresión de trámites, procesos y procedimientos para la modernización y eficiencia de la Administración Pública

De conformidad con lo establecido en el artículo 150, numeral 10, de la Constitución Política, revístese al Presidente de la República de precisas facultades extraordinarias, por el término de seis (6) meses, contados a partir de la fecha de publicación de la presente ley, para:

Simplificar o suprimir o reformar trámites, procesos y procedimientos innecesarios existentes en la administración pública.

Artículo 334. Fortalecimiento de la equidad, el emprendimiento y la legalidad desde la modernización y eficiencia de la Administración Pública.

De conformidad con lo establecido en el artículo 150, numeral 10, de la Constitución Política, revístese al Presidente de la República de precisas facultades extraordinarias, por el término de seis (6) meses, contados a partir de la fecha de publicación de la presente ley, para:

Realizar las modificaciones presupuestales necesarias para apropiar los gastos de funcionamiento e inversión necesarios para el cumplimiento de las facultades extraordinarias conferidas en la presente ley.

Artículo 335. Autonomía presupuestal del Consejo Nacional Electoral.

Para efectos de la autonomía administrativa y presupuestal del Consejo Nacional Electoral de que trata el artículo 265 de la Constitución, revístase al Presidente de la República de facultades extraordinarias para que dentro de los 6 meses siguientes a la expedición de la presente ley, adopte la estructura y organización del Consejo Nacional Electoral, que mantendrá el régimen especial establecido en la Ley 1350 de 2009 para lo cual tendrá en cuenta los estudios que ha adelantado dicha Corporación y el Departamento Administrativo de la Función Pública sobre el particular.

En la Ley Anual de Presupuesto se asignarán las apropiaciones necesarias con sujeción a las disposiciones de la gestión presupuestal para el desarrollo de la estructura y organización del Consejo Nacional Electoral.

Parágrafo 1°. En ejercicio de su autonomía administrativa le corresponde al Consejo Nacional Electoral a través de su presidente, nombrar a los servidores públicos de acuerdo con la estructura y organización dispuesta para el efecto, así como crear grupos internos de trabajo y definir todos los aspectos relacionados con el cumplimiento de sus funciones, en armonía con los principios consagrados en la Constitución Política y la ley, así como suscribir los contratos que debe celebrar en cumplimiento de sus funciones, sin perjuicio de la delegación que para el efecto, realice conforme a lo dispuesto en las disposiciones legales y en la presente ley.

Parágrafo 2°. En desarrollo de las facultades de que trata el presente artículo el Presidente de la República adoptará la estructura orgánica e interna y la planta de personal para el Consejo Nacional Electoral, que le permita desarrollar la autonomía administrativa y presupuestal de que trata el artículo 265 de la Constitución Política. El régimen laboral para sus servidores será el establecido en la Ley 1350 de 2009. El presidente del Consejo estará facultado para nombrar a los empleados del Consejo y para celebrar los contratos en cumplimiento de sus funciones.

Artículo 336. Vigencias y derogatorias.

La presente ley rige a partir de su publicación y deroga todas las disposiciones que le sean contrarias.

Los artículos de las Leyes 812 de 2003, 1151 de 2007, 1450 de 2011, y 1753 de 2015 no derogados expresamente en el siguiente Inciso o por otras leyes continuarán vigentes hasta que sean derogados o modificados por norma posterior.

Se derogan expresamente el artículo 4° de la Ley 14 de 1983; el artículo 84 de la Ley 100 de 1993; el artículo 174 del Decreto-ley 1333 de 1986; el artículo 92 de la Ley 617 de 2000; el artículo 167 de la Ley 769 de 2002, el artículo 56 y 68 de la Ley 962 de 2005; el Parágrafo 1° del artículo 4° de la Ley 1393 de 2010; los artículos 51 a 59 de la Ley 1429 de 2010; el artículo 81 de la Ley 1438 de 2011; los artículos 69, 90, 91, 131, 132, 133, 134, 138,141, 149, 152 a 155, 159, 161, 171,194, 196, 212, 223, 224, 272 de la Ley 1450 de 2011; los artículos 7°, 32, 34, 47, 58, 60, 90, 95, 98, 106, 135, 136, 186, 219, 222, 259, 261, 264 y los Parágrafos de los artículos 55 y 57 de la Ley 1753 de 2015; el artículo 7° de la Ley 1797 de 2016; el Parágrafo transitorio del artículo 12 de la Ley 1904 de 2018; el artículo 110 de la Ley 1943 de 2018; y el artículo 4° de la Ley 1951 de 2019.

Parágrafo 1°. Los artículos 231, 232, 233, 234, 235 y 236 de la presente ley entrarán en vigencia a partir del 1° de enero de 2020.

Parágrafo 2°. El artículo 49, 58 y el numeral 43.2.2. del artículo 43 de la Ley 715 de 2001; el artículo 7° de la Ley 1608 de 2013 y los artículos 2° y 3° incisos 6° y 7° de la Ley 1797 de 2016, perderán vigencia el 31 de diciembre de 2019.

Parágrafo 3°. Las disposiciones del Capítulo VI de la Parte V del Estatuto Orgánico del Sistema Financiero perderán vigencia en el término de 24 meses contados a partir de la vigencia de la presente ley.

El Presidente del Honorable Senado de la República, ERNESTO MACÍAS TOVAR. 

El Secretario General del Honorable Senado de la República, GREGORIO ELJACH PACHECO. 

El Presidente de la Honorable Cámara de Representantes, ALEJANDRO CARLOS CHACÓN CAMARGO. 

El Secretario General de la Honorable Cámara de Representantes, JORGE HUMBERTO MANTILLA SERRANO. 

REPÚBLICA DE COLOMBIA – GOBIERNO NACIONAL 

  Publíquese y ejecútese.

Dada en Valledupar, a 25 de mayo de 2019.

IVÁN DUQUE MÁRQUEZ 

La Ministra del Interior, NANCY PATRICIA GUTIÉRREZ CASTAÑEDA. 

El Ministro de Relaciones Exteriores, CARLOS HOLMES TRUJILLO GARCÍA. 

El Ministro de Hacienda y Crédito Público, ALBERTO CARRASQUILLA BARRERA. 

El Viceministro de Política Criminal y Justicia Restaurativa, encargado del empleo de Ministro de Justicia y del Derecho, JUAN FRANCISCO ESPINOSA PALACIOS. 

El Ministro de Defensa Nacional, LORENZO GUILLERMO BOTERO NIETO. 

El Viceministro de Desarrollo Rural, encargado de las funciones del despacho del Ministro de Agricultura y Desarrollo Rural, JAVIER IGNACIO PÉREZ BURGOS. 

El Ministro de Salud y Protección Social, JUAN PABLO EUSEBIO URIBE RETREPO. 

La Ministra del Trabajo, ALICIA VICTORIA ARANGO OLMOS. 

El Ministro de Comercio, Industria y Turismo, JOSÉ MANUEL RESTREPO ABONDANO. 

La Ministra de Educación Nacional, MARÍA VICTORIA ANGULO GONZÁLEZ. 

La Ministra de Minas y Energía, MARÍA FERNANDA SUÁREZ LONDOÑO. 

El Ministro de Ambiente y Desarrollo Sostenible, RICARDO JOSÉ LOZANO PICÓN. 

El Ministro de Vivienda, Ciudad y Territorio, JONATHAN TYBALT MALAGÓN GONZÁLEZ. 

La Ministra de Tecnologías de la Información y las Comunicaciones, SYLVIA CRISTINA CONSTAIN RENGIFO. 

El Viceministro de Transporte, encargado de las funciones del despacho de la Ministra de Transporte, JUAN CAMILO OSTOS ROMERO. 

La Ministra de Cultura, CARMEN INÉS VÁSQUEZ CAMACHO. 

La Directora del Departamento Nacional de Planeación, GLORIA AMPARO ALONSO MÁSMELA.

27Oct/20

COM 2020/65 final, de 19 de febrero de 2020

COM 2020/65 final de 19 de febrero de 2020. Libro blanco sobre la inteligencia artificial. Un enfoque europeo orientado a la excelencia y la confianza

Libro Blanco sobre la inteligencia artificial: un enfoque europeo orientado a la excelencia y la confianza

La inteligencia artificial se está desarrollando rápido. Cambiará nuestras vidas, pues mejorará la atención sanitaria (por ejemplo, incrementando la precisión de los diagnósticos y permitiendo una mejor prevención de las enfermedades), aumentará la eficiencia de la agricultura, contribuirá a la mitigación del cambio climático y a la correspondiente adaptación, mejorará la eficiencia de los sistemas de producción a través de un mantenimiento predictivo, aumentará la seguridad de los europeos y nos aportará otros muchos cambios que de momento solo podemos intuir. Al mismo tiempo, la inteligencia artificial (IA) conlleva una serie de riesgos potenciales, como la opacidad en la toma de decisiones, la discriminación de género o de otro tipo, la intromisión en nuestras vidas privadas o su uso con fines delictivos.

En un contexto de feroz competencia mundial, se requiere un enfoque europeo sólido basado en la Estrategia Europea para la IA presentada en abril de 2018 (1). Para aprovechar las oportunidades que ofrece la inteligencia artificial y abordar los retos que presenta, la UE debe actuar conjuntamente y determinar de qué manera, a partir de los valores europeos, promoverá su desarrollo y adopción.

La Comisión se ha comprometido a facilitar el avance científico, preservar el liderazgo tecnológico de la UE y garantizar que las nuevas tecnologías estén al servicio de todos los europeos, de manera que mejoren sus vidas al mismo tiempo que respetan sus derechos.

La presidenta de la Comisión, Ursula von der Leyen, anunció en sus orientaciones políticas (2) un enfoque europeo coordinado en torno a las implicaciones éticas y humanas de la inteligencia artificial y un análisis sobre cómo mejorar la utilización de los macrodatos en la innovación.

Consecuentemente, la Comisión respalda un enfoque basado en la regulación y en la inversión, que tiene el doble objetivo de promover la adopción de la inteligencia artificial y de abordar los riesgos vinculados a determinados usos de esta nueva tecnología. La finalidad del presente Libro Blanco es formular alternativas políticas para alcanzar estos objetivos; no aborda ni el desarrollo ni el uso de la inteligencia artificial para fines militares. La Comisión invita a los Estados miembros, a otras instituciones europeas y a todas las partes interesadas, como la industria, los interlocutores sociales, las organizaciones de la sociedad civil, los investigadores, el público general y demás personas con interés en la materia, a que presenten sus opiniones con respecto de las opciones que se muestran a continuación y a que contribuyan a la futura toma de decisiones de la Comisión en este ámbito.

1. INTRODUCCIÓN

A medida que la tecnología digital adquiere un carácter cada vez más primordial en los distintos aspectos de la vida de las personas, es necesario que estas últimas puedan confiar en ella. Generar confianza es un requisito previo para su adopción, y ello supone una oportunidad para Europa, dada su estrecha vinculación con los valores y el Estado de Derecho y su capacidad demostrada de crear productos seguros, fiables y sofisticados en sectores que van desde la aeronáutica a la energía, pasando por la automoción y los equipos médicos.

El crecimiento económico sostenible y el bienestar social presentes y futuros de Europa se valen cada vez más de los valores creados por los datos. La inteligencia artificial es una de las partes más importantes de la economía de los datos. Hoy en día, la mayor parte de los datos son relativos a los consumidores y se almacenan y tratan en infraestructuras ubicadas en nubes centralizadas. Frente a esto, una enorme proporción de los datos del futuro, que serán mucho más abundantes, procederá de la industria, las empresas y el sector público, y se almacenará en diversos sistemas, entre los que destacan los dispositivos informáticos que operan en el borde de la red. Este hecho ofrece nuevas oportunidades a Europa, que cuenta con una posición sólida en la industria digitalizada y las aplicaciones de comunicación empresarial, pero con una posición relativamente frágil en las plataformas de consumidores.

En otras palabras, la inteligencia artificial es una combinación de tecnologías que agrupa datos, algoritmos y capacidad informática. Los avances en computación y la creciente disponibilidad de datos son, por tanto, un motor fundamental en el pronunciado crecimiento actual de la inteligencia artificial. Europa puede aunar su potencial tecnológico e industrial con una infraestructura digital de gran calidad y un marco regulador basado en sus valores fundamentales para convertirse en líder mundial de la innovación en la economía de los datos y sus aplicaciones, tal como se establece en la Estrategia Europea de Datos (3). Sobre estos cimientos, puede desarrollar un ecosistema de inteligencia artificial que acerque las ventajas de la tecnología a la sociedad y la economía europeas en su conjunto:

  • a los ciudadanos, para que obtengan nuevos beneficios, como una mejor atención sanitaria, una menor cantidad de averías de los aparatos domésticos, unos sistemas de transporte más seguros y limpios, o mejores servicios públicos;
  • al desarrollo empresarial, por ejemplo, mediante una nueva generación de productos y de servicios en áreas en las que Europa es particularmente fuerte (maquinaria, transporte, ciberseguridad, agricultura, economía verde y circular, atención sanitaria y sectores de gran valor añadido, como la moda y el turismo); y
  • a los servicios de interés público, por ejemplo mediante una reducción de los costes de la prestación de servicios (transporte, educación, energía y gestión de los residuos), una mayor sostenibilidad de los productos (4), o proporcionando a los servicios y fuerzas de seguridad las herramientas adecuadas para que aseguren la protección de los ciudadanos (5), garantizando correctamente el respeto de sus derechos y libertades.

Teniendo en cuenta el enorme impacto que puede tener la inteligencia artificial en nuestra sociedad y la necesidad de que suscite confianza, resulta clave que la inteligencia artificial europea se asiente en nuestros valores y derechos fundamentales, como la dignidad humana y la protección de la privacidad.

Por otra parte, el impacto de los sistemas de IA debe considerarse no solo desde una perspectiva individual, sino también desde la perspectiva de la sociedad en su conjunto. El uso de sistemas de inteligencia artificial puede tener un papel importante en la consecución de los Objetivos de Desarrollo Sostenible y en el respaldo de los procesos democráticos y los derechos sociales. Con sus recientes propuestas sobre el Pacto Verde Europeo (6), Europa va a la vanguardia de la lucha contra el cambio climático y los retos medioambientales asociados. Las tecnologías digitales como la inteligencia artificial son motores clave para alcanzar los objetivos del Pacto Verde. Dada la importancia creciente de la inteligencia artificial, es necesario tomar en debida consideración las repercusiones medioambientales de sus sistemas a lo largo de su ciclo de vida y durante toda la cadena de suministro, por ejemplo, en lo que se refiere a la utilización de recursos para el entrenamiento de los algoritmos y el almacenamiento de datos.

A fin de alcanzar una envergadura suficiente y de evitar la fragmentación del mercado único, se necesita un enfoque europeo común en torno a la inteligencia artificial. Introducir iniciativas nacionales presenta el riesgo de hacer peligrar la seguridad jurídica, de reducir la confianza de los ciudadanos y de impedir el surgimiento de una industria europea dinámica.

El presente Libro Blanco ofrece alternativas políticas para facilitar un desarrollo de la inteligencia artificial seguro y fiable en Europa, que respete plenamente los valores y los derechos de los ciudadanos de la UE. Los pilares fundamentales del presente Libro Blanco son:

  • El marco político por el que se establecen medidas para armonizar los esfuerzos a escala regional, nacional y europea. En colaboración con los sectores público y privado, los objetivos del marco son movilizar recursos para obtener un «ecosistema de excelencia» a lo largo de toda la cadena de valor, partiendo de la investigación y la innovación, así como crear los incentivos adecuados para acelerar la adopción de soluciones basadas en la inteligencia artificial, también por parte de las pequeñas y medianas empresas (pymes).
  • Los elementos clave de un futuro marco normativo para la inteligencia artificial en Europa que generen un «ecosistema de confianza» exclusivo. Para hacerlo, este marco debe velar por el cumplimiento de las normas de la UE, especialmente las normas de protección de los derechos fundamentales y los derechos de los consumidores, y en concreto con relación a los sistemas de inteligencia artificial que operan en la UE y presentan un riesgo elevado (7). Generar un ecosistema de confianza constituye un objetivo político en sí mismo, y debe ofrecer seguridad a los ciudadanos para que adopten las aplicaciones de la inteligencia artificial y seguridad jurídica a las empresas y organismos públicos para que innoven usando esta última. La Comisión respalda firmemente un enfoque antropocéntrico que se base en la Comunicación Generar confianza en la inteligencia artificial centrada en el ser humano (8), y tendrá en cuenta también los resultados obtenidos durante la fase de prueba de las directrices éticas elaboradas por el grupo de expertos de alto nivel sobre la IA.

La Estrategia Europea de Datos, que acompaña al presente Libro Blanco, tiene por objeto ayudar a Europa a convertirse en la economía con agilidad en el manejo de los datos más atractiva, segura y dinámica del mundo, lo que fortalecerá a Europa con información para reforzar sus decisiones y mejorar las vidas de todos sus ciudadanos. La Estrategia establece varias medidas políticas, como la movilización de inversiones públicas y privadas, necesarias para alcanzar este objetivo. Finalmente, en el informe de la Comisión adjunto al presente Libro Blanco, se analizan las repercusiones de la inteligencia artificial, el internet de las cosas y otras tecnologías digitales en la legislación en materia de seguridad y responsabilidad civil.

2. APROVECHAR LOS PUNTOS FUERTES DE LOS MERCADOS INDUSTRIALES Y PROFESIONALES

Europa se encuentra en buena posición para beneficiarse del potencial de la inteligencia artificial, no solo como usuaria sino también como creadora y productora de esta tecnología. Cuenta con excelentes centros de investigación y con empresas emergentes innovadoras, es líder mundial en los sectores de la robótica, la fabricación y los servicios competitivos, desde la automoción hasta la atención sanitaria, pasando por la energía, los servicios financieros y la agricultura. Europa ha desarrollado una infraestructura informática sólida (mediante, por ejemplo, ordenadores de elevado rendimiento), lo que resulta fundamental para el funcionamiento de la inteligencia artificial. Además, posee un gran volumen de datos públicos y de la industria, cuyo potencial está infrautilizado actualmente. Cuenta con una capacidad industrial reconocida en sistemas digitales seguros y protegidos de bajo consumo de energía que son fundamentales para continuar desarrollando la IA.

Aprovechar la capacidad de la UE para invertir en tecnologías e infraestructuras de la siguiente generación, así como en competencias digitales como la alfabetización sobre datos, reforzará la soberanía tecnológica de Europa en el sector de las tecnologías y las infraestructuras clave para dinamizar la economía de los datos. Las infraestructuras deben respaldar la creación de repositorios de datos que permitan materializar una inteligencia artificial fiable, es decir, una inteligencia artificial basada en los valores y las normas europeos.

Europa debe aprovechar sus puntos fuertes para ampliar su posición en los ecosistemas y en toda la cadena de valor, desde determinados sectores de fabricación de equipos informáticos al despliegue de los programas informáticos durante todo su recorrido hasta los servicios. En cierta medida, esto ya es realidad. Europa produce más de un cuarto de todos los robots de servicios industriales y profesionales (por ejemplo, para la agricultura de precisión, la seguridad, la sanidad, la logística, etc.), y desempeña un papel importante en el desarrollo y el uso de las aplicaciones informáticas para empresas y organizaciones (aplicaciones interempresariales como los programas informáticos de planificación de recursos, de diseño y de ingeniería), así como de aplicaciones para el fomento de la administración digital y las «empresas inteligentes».

Europa se sitúa a la vanguardia de la utilización de la inteligencia artificial en la fabricación. Más de la mitad de los mayores fabricantes aplican al menos un elemento de IA en sus operaciones de fabricación (9).

Una razón de la sólida posición de Europa en lo que se refiere a la investigación es el programa de financiación de la UE, que ha demostrado ser fundamental en las actividades de recopilación, así como a la hora de evitar duplicaciones y de movilizar inversiones públicas y privadas en los Estados miembros. A lo largo de los últimos tres años, la financiación de la UE para investigación e innovación en inteligencia artificial ha aumentado a 1.500 millones EUR, es decir, un incremento del 70 % en comparación con el período anterior.

No obstante, la inversión en investigación e innovación de Europa se sigue representando una proporción menor que la de las inversiones públicas y privadas en otras regiones del mundo. En 2016, se invirtieron unos 3.200 millones EUR en inteligencia artificial en Europa, frente a los cerca de 12.100 millones EUR en América del Norte y 6.500 millones EUR en Asia (10). Ante este hecho, Europa debe aumentar significativamente sus niveles de inversión. El Plan coordinado sobre inteligencia artificial (11) desarrollado con los Estados miembros está demostrando ser un buen punto de partida para estrechar la cooperación en materia de inteligencia artificial en Europa y crear sinergias que optimicen la inversión en la cadena de valor correspondiente.

3. APROVECHAR LAS PRÓXIMAS OPORTUNIDADES: LA SIGUIENTE OLEADA DE DATOS

Aunque Europa todavía se encuentra en una posición más menos consolidada con relación a las aplicaciones de consumidores y las plataformas en línea (lo que se traduce en una desventaja competitiva en el acceso a los datos), se están experimentando cambios importantes en el valor y la reutilización de los datos en los distintos sectores. El volumen de datos producido en el mundo va en aumento rápidamente, de 33 zetabytes en 2018 a una previsión de 175 zetabytes en 2025 (12). Cada nueva oleada de datos ofrece la oportunidad a Europa de posicionarse en la economía ágil en el manejo de los datos y convertirse en líder mundial en este ámbito. Además, la manera en que se almacenan y tratan los datos cambiará drásticamente a lo largo de los próximos cinco años. A día de hoy, el 80 % del tratamiento y el análisis de datos que se produce en la nube tiene lugar en centros de datos e instalaciones informáticas centralizadas, y el 20 % en aparatos inteligentes conectados, como automóviles, utensilios domésticos o robots de fabricación, e instalaciones informáticas cercanas al usuario («computación en el borde»). Está previsto que, de aquí a 2025, estos porcentajes cambien de manera notable (13).

Europa es líder mundial en electrónica de bajo consumo, lo que resulta fundamental para la siguiente generación de procesadores especializados en relación con la inteligencia artificial. Actualmente, este mercado está dominado por terceros de fuera de la UE. Este hecho podría cambiar con ayuda de iniciativas como la Iniciativa Europea en materia de Procesadores, centrada en desarrollar sistemas informáticos de bajo consumo de energía tanto de computación en el borde como de computación de alto rendimiento de la siguiente generación, y del trabajo de la empresa común de tecnología digital clave, cuyo inicio se ha propuesto para 2021. Europa también es líder en soluciones neuromórficas (14) que están perfectamente adaptadas para automatizar los procesos industriales (industria 4.0) y los modos de transporte. Estas soluciones pueden mejorar la eficiencia energética mediante varios órdenes de magnitud.

Los avances recientes en computación cuántica generarán aumentos exponenciales en la capacidad de tratamiento (15). Europa puede situarse a la vanguardia de esta tecnología gracias a su fortaleza académica en computación cuántica, así como a la sólida posición de la industria europea en materia de simuladores cuánticos y entornos de programación para la computación cuántica. Las iniciativas europeas que tienen por objeto incrementar la disponibilidad de pruebas y de instalaciones de ensayo cuánticos contribuirán a aplicar estas nuevas soluciones cuánticas en varios sectores industriales y académicos.

Paralelamente, Europa seguirá liderando el progreso de los fundamentos algorítmicos de la inteligencia artificial a partir de su propia excelencia científica. Existe la necesidad de tender puentes entre disciplinas que actualmente trabajan de manera independiente, tales como el aprendizaje automático y el aprendizaje profundo (caracterizados por su naturaleza interpretable limitada y por la necesidad de un gran volumen de datos para entrenar a los modelos y aprender mediante correlaciones) y los enfoques simbólicos (en los que las normas se crean mediante intervención humana). La combinación de razonamiento simbólico con redes neurales profundas puede ayudarnos a mejorar la capacidad de explicar los resultados de la inteligencia artificial.

4. UN ECOSISTEMA DE EXCELENCIA

Para crear un ecosistema de excelencia que pueda respaldar el desarrollo y la adopción de la inteligencia artificial en el conjunto de la economía y la administración pública de la UE, es necesario redoblar las acciones en varios niveles.

A. COLABORACIÓN CON LOS ESTADOS MIEMBROS

En cumplimiento de su Estrategia sobre la Inteligencia Artificial adoptada en abril de 2018 (16), en diciembre del mismo año la Comisión presentó un Plan coordinado, preparado con los Estados miembros, para fomentar el desarrollo y la utilización de la inteligencia artificial en Europa (17).

Este Plan propone cerca de 70 acciones conjuntas para hacer que la cooperación entre los Estados miembros y la Comisión en áreas clave como la investigación, la inversión, la introducción en el mercado, las capacidades y el talento, los datos y la cooperación internacional, sea más estrecha y eficiente. Está programado que el Plan esté operativo hasta 2027, y se prevé hacer un seguimiento y revisarlo de manera regular.

El objetivo es optimizar las repercusiones de la inversión en la investigación, la innovación y la utilización de la inteligencia artificial, evaluar las estrategias nacionales sobre esta tecnología y aprovechar y ampliar el Plan coordinado sobre la inteligencia artificial junto con los Estados miembros:

  • Acción 1: Teniendo en cuenta los resultados de la consulta pública sobre el Libro Blanco, la Comisión propondrá a los Estados miembros una revisión del Plan coordinado que debe adoptarse a finales de 2020.

La financiación en inteligencia artificial a escala de la UE debe atraer y poner en común inversiones en sectores en los que se requieren acciones que van más allá de lo que un Estado miembro puede conseguir por sí solo. El objetivo es atraer más de 20.000 millones EUR (18) de inversión total anual en inteligencia artificial en la UE a lo largo de la próxima década. A fin de estimular la inversión pública y privada, la UE facilitará recursos del programa Europa Digital, de Horizonte Europa y de los Fondos Estructurales y de Inversión Europeos para abordar las necesidades de las regiones menos desarrolladas y de las zonas rurales.

El Plan coordinado también puede ayudar a integrar el bienestar social y medioambiental como principios clave de la inteligencia artificial. Los sistemas de IA prometen ayudar a combatir las preocupaciones más acuciantes, como el cambio climático y la degradación medioambiental. Además, es importante que todo ello tenga lugar de una manera respetuosa con el medio ambiente. La IA puede y debe analizar por sí misma de manera crítica el uso de los recursos y el consumo de energía y ser entrenada para optar por alternativas que resulten positivas para el medio ambiente. La Comisión valorará opciones para fomentar y promover las soluciones de inteligencia artificial que se encarguen de ello junto con los Estados miembros.

B. CENTRAR LOS ESFUERZOS DE LA COMUNIDAD DE INVESTIGACIÓN E INNOVACIÓN

Europa no puede permitirse mantener el panorama actual de fragmentación de los centros de competencia, en el que ninguno de ellos alcanza la envergadura suficiente para competir con los organismos que se sitúan a la vanguardia mundial. Resulta clave crear más sinergias y redes entre los distintos centros de investigación europeos sobre la IA y armonizar los esfuerzos para mejorar la excelencia, mantener y atraer a los mejores investigadores y desarrollar las mejores tecnologías. Europa necesita un centro adalid en materia de investigación, innovación y conocimientos técnicos que coordine estos esfuerzos, que sirva de referente mundial de la excelencia en inteligencia artificial y que pueda atraer inversiones, así como a los mejores talentos del sector.

Los centros y las redes deben centrarse en los sectores en los que Europa cuenta con potencial para convertirse en líder mundial, como la industria, la sanidad, el transporte, las finanzas, las cadenas de valor agroalimentarias, la energía y el medio ambiente, la silvicultura, la observación terrestre y el espacio. En todos estos sectores, sigue librándose la carrera por el liderazgo mundial, y Europa ofrece un potencial, unos conocimientos y una pericia significativos (19). Resulta igualmente importante crear emplazamientos de ensayo y experimentación que respalden el desarrollo y posterior adopción de las nuevas aplicaciones de inteligencia artificial.

  • Acción 2: La Comisión facilitará la creación de centros de excelencia y pruebas que puedan combinar las inversiones europeas, nacionales y privadas, probablemente con la introducción de un nuevo instrumento jurídico. La Comisión ha propuesto un importe ambicioso y dirigido a respaldar centros de ensayo de referencia mundial en Europa en el marco del Programa Europa Digital, completado, cuando así se requiera, por acciones de investigación e innovación de Horizonte Europa, como parte del marco financiero plurianual para el período 2021-2027.

C. HABILIDADES

El enfoque europeo sobre la inteligencia artificial requerirá ser apuntalado por un sólido interés en las habilidades para hacer frente a la escasez de competencias (20). La Comisión presentará pronto un apoyo a la Agenda de Capacidades que pretende garantizar que todo el mundo en Europa pueda beneficiarse de las transformaciones verde y digital de la economía de la UE. Las distintas iniciativas también pueden contar con el respaldo de los reguladores sectoriales para fomentar sus habilidades en IA, a fin de aplicar de manera eficiente y eficaz las normas pertinentes. El Plan de acción sobre educación digital actualizado contribuirá a hacer un mejor uso de los datos y de las tecnologías basadas en la inteligencia artificial, como el análisis del aprendizaje y el análisis predictivo, con el objetivo de mejorar los sistemas educativos y formativos y adaptarlos a la era digital. El Plan también incrementará la concienciación en torno a la inteligencia artificial en todos los niveles de la educación a fin de capacitar a los ciudadanos para que tomen decisiones con fundamento bajo una influencia cada vez mayor de la IA.

Desarrollar las habilidades necesarias para trabajar en el ámbito de la inteligencia artificial y mejorar las cualificaciones profesionales de los trabajadores para adaptarlas a la transformación que implica esta tecnología será una prioridad del Plan coordinado sobre la IA revisado que debe desarrollarse con los Estados miembros. Ello puede implicar transformar la lista de evaluación de las directrices éticas en un «currículo» indicativo para los desarrolladores de IA que se pondrá a disposición de las instituciones de formación. Es necesario realizar esfuerzos específicos para incrementar el número de mujeres que se forman y son contratadas en esta área.

Además, el centro de referencia de investigación e innovación en IA de Europa debe atraer a talentos de todo el mundo gracias a las posibilidades que puede ofrecer. También desarrollará y ampliará la excelencia de las habilidades que se originan y propagan por toda Europa.

  • Acción 3: Mediante el pilar de capacidades avanzadas del Programa Europa Digital, establecer y respaldar redes de universidades y centros de educación superior pioneros, a fin de atraer a los mejores académicos y científicos y de ofrecer programas de máster en IA que se sitúen a la vanguardia mundial.

Más allá de la mejora de las cualificaciones profesionales, los trabajadores y las empresas experimentan las consecuencias directas del diseño y el uso de los sistemas de inteligencia artificial en el lugar de trabajo. La participación de los interlocutores sociales será un factor decisivo para garantizar un enfoque antropocéntrico de la IA en el trabajo.

D. PREOCUPARSE POR LAS PYMES

También será importante garantizar que las pymes puedan acceder a la inteligencia artificial y que la utilicen. Para ello, los centros de innovación digital (21) y la plataforma de «inteligencia artificial a la carta» (22) deben seguir reforzándose y potenciar la cooperación entre pymes. El Programa Europa Digital será clave para alcanzar este objetivo. Si bien todos los centros de innovación digital deben apoyar a las pymes para que entiendan y adopten la inteligencia artificial, será importante que al menos un centro de innovación por Estado miembro cuente con un elevado nivel de especialización en inteligencia artificial.

Las pymes y empresas emergentes necesitarán tener acceso a la financiación para adaptar sus procedimientos o innovar usando la IA. Mediante el inminente fondo de inversión piloto de 100 millones EUR para la inteligencia artificial y la cadena de bloques, la Comisión prevé seguir incrementando el acceso a la financiación en la IA en el marco de InvestEU (23). La inteligencia artificial figura de manera explícita como uno de los sectores admisibles en InvestEU.

  • Acción 4: La Comisión trabajará con los Estados miembros para garantizar que al menos un centro de innovación digital por Estado miembro cuente con un elevado nivel de especialización en inteligencia artificial. Los centros de innovación digital pueden contar con el respaldo del Programa Europa Digital.
  • La Comisión y el Fondo Europeo de Inversiones pondrán en marcha un plan piloto de 100 millones EUR en el primer cuatrimestre de 2020 con el objetivo de ofrecer financiación mediante fondos propios para el desarrollo innovador de la inteligencia artificial. A la espera de un acuerdo definitivo sobre el marco financiero plurianual, la intención de la Comisión es incrementar significativamente estos importes de 2021 en adelante, a través de InvestEU.

E. ASOCIACIONES CON EL SECTOR PRIVADO

Además, resulta fundamental asegurarse de que el sector privado participe plenamente en la elaboración de la agenda de investigación e innovación y ofrezca el nivel de coinversión necesario. Ello exige que se establezca una asociación público-privada con carácter amplio, y que se garantice el compromiso de los altos cargos de las empresas.

  • Acción 5: En el marco de Horizonte Europa, la Comisión creará una nueva asociación público-privada en materia de inteligencia artificial, datos y robótica, a fin de aunar esfuerzos, garantizar la coordinación de la investigación y la innovación en inteligencia artificial, colaborar con otras asociaciones público-privadas de Horizonte Europa y trabajar conjuntamente con las instalaciones de ensayo y los centros de innovación digital ya mencionados.

F. PROMOVER LA ADOPCIÓN DE LA IA POR PARTE DEL SECTOR PÚBLICO

Resulta fundamental que las Administraciones Públicas, los hospitales, los servicios públicos y de transporte, los supervisores financieros y otras áreas de interés público empiecen a adoptar rápidamente productos y servicios que se basen en la inteligencia artificial en sus actividades. Se hará especial hincapié en los sectores de la atención sanitaria y el transporte, en los que la tecnología está suficientemente desarrollada para una adopción a gran escala.

  • Acción 6: La Comisión iniciará conversaciones por sector abiertas y transparentes, en las que dará prioridad a la atención sanitaria, las administraciones rurales y los operadores de servicios públicos, para presentar un plan de acción que facilite el desarrollo, la experimentación y la adopción de la inteligencia artificial. Las conversaciones por sector se emplearán para preparar un «Programa de adopción de la IA» específico que respaldará la contratación pública de sistemas de inteligencia artificial, y ayudará a transformar los propios procesos de esta contratación.

G. ASEGURAR EL ACCESO A LOS DATOS Y LAS INFRAESTRUCTURAS INFORMÁTICAS

Las áreas de acción establecidas en el presente Libro Blanco completan el plan presentado en paralelo en el marco de la Estrategia Europea de Datos. Mejorar el acceso a los datos y la gestión de estos últimos resulta fundamental. Sin datos, el desarrollo de la IA y otras aplicaciones digitales resulta imposible. El enorme volumen de datos nuevos que está por generarse es una oportunidad para que Europa se posicione en la primera línea de la transformación en materia de datos e inteligencia artificial. Promover prácticas de gestión responsable de los datos e incentivar el cumplimiento, en lo que respecta a estos últimos, de los principios FAIR contribuirá a generar confianza y a posibilitar su reutilización (24). La inversión en infraestructuras y tecnologías informáticas clave es igualmente importante.

La Comisión ha propuesto más de 4.000 millones EUR en el marco del Programa Europa Digital para respaldar la computación de alto rendimiento y la computación cuántica, especialmente la computación en el borde y la inteligencia artificial, así como las infraestructuras de la nube y de datos. La Estrategia Europea de Datos desarrolla estas prioridades con mayor detalle.

H. ASPECTOS INTERNACIONALES

Europa se encuentra en una buena posición para asumir el liderazgo mundial a la hora de crear alianzas en torno a valores compartidos y promover el uso ético de la inteligencia artificial. El trabajo de la UE sobre inteligencia artificial ya ha tenido influencia en distintas negociaciones internacionales. A la hora de elaborar sus directrices éticas, el grupo de expertos de alto nivel contó con la participación de varias organizaciones de fuera de la UE y de diversos observadores gubernamentales. Paralelamente, la UE colaboró estrechamente en la elaboración de los principios éticos de la OCDE en materia de IA (25). Posteriormente, el G20 suscribió estos principios en su Declaración Ministerial sobre Comercio y Economía Digital de junio de 2019.

De manera simultánea, la UE admite que está realizando una importante labor sobre la inteligencia artificial en otros foros multilaterales, como el Consejo de Europa, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), la Organización para la Cooperación y el Desarrollo Económicos (OCDE), la Organización Mundial del Comercio y la Unión Internacional de Telecomunicaciones (UIT). En las Naciones Unidas, la UE participa en el seguimiento del informe del Panel de Alto Nivel sobre la Cooperación Digital, incluida su recomendación sobre inteligencia artificial.

La UE seguirá cooperando en torno a la IA con países de mentalidad similar, pero también con terceras partes de todo el mundo, sobre la base de un enfoque fundamentado en las normas y valores de la UE (por ejemplo, respaldando una mayor convergencia normativa; mediante el acceso a recursos clave, como los datos; o creando un entorno de igualdad de condiciones). La Comisión seguirá de cerca las políticas de terceros países que limitan los flujos de datos y hará frente a las restricciones indebidas en las negociaciones comerciales bilaterales y mediante acciones en el contexto de la Organización Mundial del Comercio. La Comisión está convencida de que la cooperación internacional sobre cuestiones relativas a la IA debe basarse en un enfoque que promueva el respeto de los derechos fundamentales, especialmente la dignidad humana, el pluralismo, la inclusión, la ausencia de discriminación y la protección de la privacidad y de los datos personales (26), y se esforzará por exportar estos valores al resto del mundo (27). Igualmente, resulta evidente que un desarrollo y un uso responsables de la IA pueden ser un motor para alcanzar los Objetivos de Desarrollo Sostenible y progresar en la Agenda 2030.

5. UN ECOSISTEMA DE CONFIANZA: EL MARCO REGULADOR DE LA IA

Como sucede con toda nueva tecnología, el uso de la IA presenta tanto oportunidades como amenazas.  Los ciudadanos temen quedarse indefensos a la hora de proteger sus derechos y su seguridad frente a los desequilibrios informativos de la toma de decisiones mediante algoritmos, y las empresas sienten inquietud debido a la inseguridad jurídica. Si bien la inteligencia artificial puede ayudar a proteger la seguridad de los ciudadanos y permitirles gozar de sus derechos fundamentales, a estos también les preocupa el hecho de que la IA pueda tener efectos imprevistos o incluso que pueda utilizarse con fines malintencionados. Es preciso tener en cuenta esos recelos. Además, a la falta de inversión y de habilidades, es preciso añadir la falta de confianza como uno de los principales obstáculos para una adopción más amplia de la IA.

Esta es la razón por la que, el 25 de abril de 2018, la Comisión estableció una estrategia sobre IA (28) que abordaba los aspectos socioeconómicos junto con un aumento de la inversión en investigación, innovación y capacidad en materia de IA en toda la UE. También aprobó un Plan coordinado (29) con los Estados miembros para armonizar estrategias. La Comisión creó, además, un grupo de expertos de alto nivel que, en abril de 2019, publicó directrices para una IA fiable (30).

La Comisión publicó una Comunicación (31) según la cual acogía favorablemente los siete requisitos esenciales contemplados en las directrices del grupo de expertos de alto nivel, a saber:

  • acción y supervisión humanas;
  • solidez técnica y seguridad;
  • gestión de la privacidad y de los datos;
  • transparencia;
  • diversidad, no discriminación y equidad;
  • bienestar social y medioambiental;
  • rendición de cuentas.

Además, las directrices facilitan una lista para que las empresas comprueben en la práctica si se cumplen los requisitos. Durante la segunda mitad de 2019, más de 350 organizaciones probaron esta lista y enviaron sus observaciones al respecto. El grupo de expertos de alto nivel está revisando las directrices a partir de estas observaciones y terminará esta labor de aquí a junio de 2020. Una observación fundamental tras el proceso de consultas es que, si bien varios de los requisitos se recogen ya en los regímenes jurídicos o reguladores, aquellos relativos a la transparencia, el seguimiento y la supervisión humana no se contemplan de manera específica en la legislación en vigor de numerosos sectores económicos.

Además de este conjunto de directrices no vinculantes del grupo de expertos de alto nivel, y de conformidad con las orientaciones políticas de la presidenta, un marco regulador claro para Europa generaría confianza entre los consumidores y las empresas con relación a la IA, y, por consiguiente, aceleraría su adopción. Dicho marco regulador debe ser coherente con otras acciones destinadas a promover la capacidad innovadora y la competitividad de Europa en el sector. Además, debe garantizar resultados óptimos desde el punto de vista social, medioambiental y económico, así como su conformidad con la legislación, los principios y los valores de la UE. Ello resulta especialmente relevante en sectores en los que los derechos de los ciudadanos se vean afectados de manera más directa; por ejemplo, en el caso de las aplicaciones de IA empleadas por los cuerpos y fuerzas de seguridad y el poder judicial.

Los desarrolladores e implementadores de la inteligencia artificial ya están sujetos a la legislación europea en materia de derechos fundamentales (la protección de datos, la privacidad o la no discriminación, entre otros), protección de los consumidores y normas sobre la seguridad de los productos y responsabilidad civil. Los consumidores esperan el mismo nivel de seguridad y respeto de sus derechos independientemente de si un producto o un sistema está basado en la IA o no. Sin embargo, algunas características específicas de la IA (como la opacidad) pueden hacer que la aplicación y ejecución de la legislación sea más compleja. Por esta razón, resulta necesario analizar si la legislación actual puede hacer frente a los riesgos de la IA y si su observancia es factible o si, por el contrario, es necesario adaptarla o se requiere nueva legislación.

Debido a la rapidez con la que evoluciona la inteligencia artificial, el marco regulador debe dejar margen para abordar su desarrollo en el futuro. Toda modificación debe limitarse a aquellos problemas detectados con claridad para los que existan soluciones factibles.

Los Estados miembros señalan la actual falta de un marco común europeo. El Comité alemán sobre ética en materia de datos propone un sistema de regulación de cinco niveles basado en el riesgo, que va desde la ausencia de regulación en el caso de los sistemas de IA más inocuos hasta la prohibición absoluta en el caso de los más peligrosos. Dinamarca acaba de poner en marcha un prototipo de «sello de ética de los datos». Malta ha incorporado un sistema voluntario de certificación de la IA. Si la UE no es capaz de ofrecer un enfoque a escala de la Unión, existe un riesgo real de fragmentación del mercado interior, que pondría en peligro los objetivos de la confianza y la seguridad jurídica, así como el de la adopción de la IA en el mercado.

Un marco regulador europeo sólido que garantice una IA fiable protegerá a todos los ciudadanos europeos y contribuirá a crear un mercado interior sin fricciones de cara al desarrollo y adopción futuros de la IA, y reforzará los cimientos industriales de Europa en el sector de la inteligencia artificial.

A. DEFINICIÓN DE LOS PROBLEMAS

Aunque la IA puede ofrecer muchas ventajas, por ejemplo, mejorando la seguridad de los productos y los procedimientos, también puede resultar nociva. Los daños pueden ser tanto materiales (para la seguridad y la salud de las personas, con consecuencias como la muerte, y menoscabos al patrimonio) como inmateriales (pérdida de privacidad, limitaciones del derecho de libertad de expresión, dignidad humana, discriminación en el acceso al empleo, etc.) y pueden estar vinculados a una gran variedad de riesgos. El marco regulador debe centrarse en cómo minimizar los distintos riesgos de sufrir daños, especialmente los más significativos.

Los principales riesgos relacionados con el uso de la inteligencia artificial afectan a la aplicación de las normas diseñadas para proteger los derechos fundamentales (como la protección de los datos personales y la privacidad, o la no discriminación) y la seguridad (32), así como a las cuestiones relativas a la responsabilidad civil.

Riesgos para los derechos fundamentales, especialmente la protección de los datos personales y de la privacidad y la no discriminación

El uso de la inteligencia artificial puede afectar a los valores sobre los que se fundamenta la UE y provocar la conculcación de derechos fundamentales (33), como la libertad de expresión, la libertad de reunión, la dignidad humana, la ausencia de discriminación por razón de sexo, raza u origen étnico, religión o credo, discapacidad, edad u orientación sexual, y, en su aplicación en determinados ámbitos, la protección de los datos personales y de la vida privada (34), el derecho a una tutela judicial efectiva y a un juicio justo, o la protección de los consumidores. Estos riesgos pueden ser resultado de defectos en el diseño general de los sistemas de IA (especialmente en lo que se refiere a la supervisión humana) o del uso de datos que puedan ser sesgados sin una corrección previa (por ejemplo, se entrena un sistema utilizando única o principalmente datos relativos a hombres, y ello se traduce en resultados peores con relación a las mujeres).

La inteligencia artificial puede desempeñar muchas funciones que antes solo podían realizar los humanos. Como resultado, los ciudadanos y las personas jurídicas serán, cada vez más, objeto de acciones y decisiones adoptadas por sistemas de inteligencia artificial o con ayuda de estos; dichas acciones y decisiones, en ocasiones, pueden resultar difíciles de entender o de rebatir eficazmente cuando se requiera. Además, la IA incrementa las posibilidades de hacer un seguimiento y un análisis de las costumbres cotidianas de las personas. Por ejemplo, existe el riesgo potencial de que, incumpliendo las normas de la UE en materia de protección de datos u otras normas, las autoridades estatales y otros organismos recurran a la IA para la vigilancia masiva, o las empresas la utilicen para observar cómo se comportan sus empleados. Al analizar grandes cantidades de datos y detectar la conexión existente entre ellos, la IA también puede utilizarse para rastrear y desanonimizar datos relativos a personas, y generar así nuevos riesgos en torno a la protección de los datos personales con relación a conjuntos de datos que, en sí mismos, no contienen datos personales. Los intermediarios de la red también utilizan la IA para ordenar la información para sus usuarios por prioridades y moderar los contenidos. El tratamiento de los datos, el modo en el que se diseñan las aplicaciones y la envergadura de la intervención humana pueden afectar a los derechos de libertad de expresión, protección de los datos personales, privacidad y libertad política.

——————————————————————————————————————

Puede suceder que el uso de determinados algoritmos de la IA para predecir la reincidencia delictiva dé lugar a prejuicios raciales o de género, y prevea una probabilidad de reincidencia distinta para hombres y mujeres o para nacionales y extranjeros. Fuente: Tolan S., Miron M., Gomez E. and Castillo C. “Why Machine Learning May Lead to Unfairness: Evidence from Risk Assessment for Juvenile Justice in Catalonia”, Best Paper Award, International Conference on AI and Law, 2019.

Algunos programas de IA de análisis facial muestran prejuicios raciales o de género, y presentan un bajo nivel de error a la hora de determinar el género de hombres de piel más clara, pero un elevado nivel de error al determinar el género de mujeres de piel más oscura. Fuente: Joy Buolamwini, Timnit Gebru; Proceedings of the 1st Conference on Fairness, Accountability and Transparency, PMLR 81:77-91, 2018.

—————————————————————————————————————–

Los prejuicios y la discriminación son riesgos inherentes a toda actividad social o económica. La toma de decisiones de las personas no es ajena al error ni a la subjetividad. No obstante, en el caso de la IA, esta misma subjetividad puede tener efectos mucho más amplios, y afectar y discriminar a numerosas personas sin que existan mecanismos como los de control social que rigen el comportamiento humano (35). Puede suceder también que el sistema de IA «aprenda» mientras está funcionando. En tales casos, cuando los resultados no puedan preverse ni anticiparse en la fase de diseño, los riesgos no se deberán a fallos en el diseño original del sistema, sino más bien a las repercusiones prácticas de las correlaciones o de los modelos que reconozca el sistema en un gran conjunto de datos.

Las características particulares de numerosas tecnologías de IA, como la opacidad («efecto caja negra»), la complejidad, la imprevisibilidad y un comportamiento parcialmente autónomo, pueden hacer difícil comprobar el cumplimiento de la legislación vigente de la UE sobre la protección de los derechos fundamentales e impedir su cumplimiento efectivo. Puede ser que las fuerzas y cuerpos de seguridad y las personas afectadas carezcan de los medios para comprobar cómo se ha tomado una decisión determinada con ayuda de la IA y, por consiguiente, si se han respetado las normas pertinentes. Las personas físicas y las personas jurídicas pueden enfrentarse a dificultades en el acceso efectivo a la justicia en situaciones en las que estas decisiones les afecten negativamente.

Riesgos para la seguridad y el funcionamiento eficaz del régimen de responsabilidad civil

Las tecnologías de IA pueden presentar nuevos riesgos de seguridad para los usuarios cuando estén integradas en productos y servicios. Por ejemplo, como resultado de un defecto en la tecnología de reconocimiento de objetos, un vehículo autónomo puede detectar erróneamente un objeto en la carretera y causar un accidente que provoque heridos y daños materiales. Como sucede con los riesgos para los derechos fundamentales, estos riesgos pueden proceder de defectos en el diseño de la tecnología de IA, estar relacionados con problemas de disponibilidad o calidad de los datos, u otros derivados del aprendizaje de las máquinas. Aunque algunos de estos riegos no se limitan a los productos o servicios que dependen de la IA, el uso de esta última puede aumentar o agravar los riesgos.

Además de los riesgos a los que se enfrentan estas personas, la falta de disposiciones claras en materia de seguridad para abordarlos puede crear inseguridad jurídica entre las empresas que comercializan productos que utilicen IA en la UE. Las autoridades encargadas de supervisar el mercado o de ejecutar las normas pueden encontrarse en una situación en la que les resulte confuso cómo intervenir, puesto que tal vez no estén facultadas para tomar medidas o no cuenten con la capacidades técnicas adecuadas para examinar los sistemas (36). Por consiguiente, la inseguridad jurídica puede reducir los niveles globales de seguridad y minar la competitividad de las empresas europeas.

Si los riesgos de seguridad se materializan, la falta de requisitos claros y las características de las tecnologías de IA mencionadas anteriormente pueden complicar la trazabilidad de las decisiones potencialmente problemáticas que se hayan tomado con ayuda de sistemas de IA. A su vez, esto puede dificultar a las personas damnificadas recibir compensaciones en el marco de la normativa en materia de responsabilidad civil en vigor en la UE y los distintos países (37).

——————————————————————————————————————–

En el marco de la Directiva sobre responsabilidad por los daños causados por productos defectuosos, un fabricante es responsable de los daños causados por un producto defectuoso. No obstante, en el caso de un sistema basado en la IA, como un vehículo autónomo, puede resultar difícil demostrar la existencia de un defecto en el producto, el daño que este ha generado y el nexo causal entre ambos. Además, hay cierta incertidumbre sobre cómo y en qué medida resulta aplicable la Directiva sobre responsabilidad por los daños causados por productos defectuosos en el caso de algunos tipos de defectos, por ejemplo, cuando estos se deban a una falla en la ciberseguridad del producto

——————————————————————————————————————–

Por consiguiente, la dificultad para hacer un seguimiento retrospectivo de las decisiones potencialmente problemáticas adoptadas mediante sistemas de IA y contempladas anteriormente con relación a los derechos fundamentales es aplicable tanto a los problemas de seguridad como de responsabilidad civil. Es posible que las personas que hayan sufrido daños no dispongan de un acceso efectivo a las pruebas necesarias para llevar un caso ante los tribunales, por ejemplo, y tengan menos probabilidades de obtener una reparación efectiva en comparación con situaciones en las que los daños sean causados por tecnologías tradicionales. Estos riesgos aumentarán a medida que se generaliza el uso de la IA.

B. POSIBLES ADAPTACIONES DEL MARCO NORMATIVO EN VIGOR EN LA UE CON RELACIÓN A LA IA

Un amplio volumen de la legislación en vigor en la UE en materia de seguridad de los productos y responsabilidad civil (38), especialmente determinadas normas sectoriales, completadas a su vez por la legislación nacional, resulta pertinente y de potencial aplicación a varias de las nuevas aplicaciones de IA.

En lo que se refiere a la protección de los derechos fundamentales y los derechos de los consumidores, el marco normativo de la UE contiene legislación como la Directiva sobre igualdad racial (39), la Directiva sobre igualdad de trato en el empleo y la ocupación (40), las Directivas relativas a la igualdad de trato entre mujeres y hombres con relación al empleo y el acceso a los bienes y servicios (41), varias normas de protección de los consumidores (42) y normas sobre la protección de los datos personales y la privacidad, especialmente el Reglamento General de Protección de Datos y otra legislación sectorial en la que se contempla la protección de los datos personales, como la Directiva sobre protección de datos en el ámbito penal (43). Además, a partir de 2025, resultarán de aplicación las normas sobre los requisitos de accesibilidad de bienes y servicios establecidas en el Acta Europea de Accesibilidad (44). Por otra parte, es necesario respetar los derechos fundamentales cuando se ejecuten otras normas de la UE, como las relativas al sector de los servicios financieros, la migración o la responsabilidad de los intermediarios en línea.

Si bien la legislación de la UE resulta, en principio, plenamente aplicable independientemente del uso de IA, resulta importante evaluar si puede ejecutarse de manera adecuada para abordar los riesgos que generan los sistemas de IA, o si se requiere adaptar instrumentos jurídicos específicos.

Por ejemplo, los agentes económicos siguen siendo plenamente responsables de que la IA respete las normas existentes en materia de protección de los consumidores. Igualmente, debe prohibirse todo uso de los algoritmos con relación al comportamiento de los consumidores cuando se vulneren las normas existentes, y tales vulneraciones deben sancionarse en consecuencia.

La Comisión considera que conviene mejorar el marco normativo para abordar los riesgos y situaciones siguientes:

  • Aplicación y ejecución efectivas de la legislación nacional y de la UE en vigor: Las características fundamentales de la IA entrañan dificultades para garantizar la correcta aplicación y ejecución de la legislación nacional y de la UE. La falta de transparencia (opacidad de la IA) hace difícil detectar y demostrar los posibles incumplimientos de la legislación, especialmente las disposiciones legales que protegen los derechos fundamentales, imputan responsabilidades y permiten reclamar una indemnización. Por tanto, a fin de garantizar una aplicación y ejecución efectivas, puede resultar necesario adaptar o clarificar la legislación en vigor en algunos sectores, como sucede en el caso de la responsabilidad civil, tal como se detalla en el informe adjunto al presente Libro Blanco.
  • Limitaciones del ámbito de aplicación de la legislación existente de la UE: Uno de los centros de interés fundamentales de la legislación sobre seguridad de los productos en la UE lo constituye la comercialización de los productos. Aunque, en la legislación de la UE en materia de seguridad de los productos, los programas informáticos que forman parte de un producto final deben respetar las normas de seguridad del producto pertinentes, existe la duda de si un programa autónomo se rige por la legislación de seguridad de los productos de la UE, salvo en aquellos sectores que cuentan con normas explícitas (45). La legislación general de la UE en materia de seguridad en vigor resulta de aplicación a los productos y no a los servicios, y, por consiguiente, a priori no se aplica tampoco a los servicios basados en las tecnologías de IA (como servicios sanitarios, financieros o de transporte).
  • Cambios en la funcionalidad de los sistemas de IA: La incorporación de programas informáticos, incluida la IA, en los productos puede modificar el funcionamiento de tales productos y sistemas a lo largo de su ciclo de vida. Ello resulta particularmente cierto en el caso de los sistemas que requieren actualizaciones informáticas frecuentes o que se basan en el aprendizaje automático. Estas características pueden dar lugar a nuevos riesgos que no existían en el momento en que se introdujo el sistema en el mercado. Estos riesgos no se abordan adecuadamente en la legislación en vigor, que se centra sobre todo en los riesgos de seguridad en el momento de la comercialización.
  • Incertidumbre en lo que se refiere a la imputación de responsabilidades entre los distintos agentes económicos de la cadena de suministro: En general, la legislación de la UE sobre la seguridad de los productos imputa la responsabilidad al productor del producto comercializado, incluidos todos sus componentes, como los sistemas de IA. Sin embargo, estas normas pueden resultar poco claras cuando la IA es incorporada al producto, una vez que este se ha comercializado, por alguien que no es el productor. Además, la legislación de la UE sobre la responsabilidad civil por los productos regula la responsabilidad de los productores y deja que las normas nacionales en materia de responsabilidad civil se encarguen de los demás participantes en la cadena de suministro.
  • Cambios en el concepto de seguridad: El uso de la IA en los productos y los servicios puede generar riesgos que la legislación de la UE no aborda de manera explícita en la actualidad. Estos riesgos pueden estar vinculados a ciberamenazas, a la seguridad personal (por ejemplo, con relación a nuevos usos de la IA, como en el caso de los aparatos domésticos), a la pérdida de conectividad, etc., y pueden existir en el momento de comercializar los productos o surgir como resultado de la actualización de los programas informáticos y del aprendizaje automático del producto cuando este último se está utilizando. La UE debe hacer un uso pleno de las herramientas que están a su disposición para reforzar su base empírica sobre los riesgos potenciales asociados a las aplicaciones de IA, y aprovechar especialmente la experiencia de la Agencia de Seguridad de las Redes y de la Información de la Unión Europea (ENISA) para evaluar el panorama de amenazas de la IA.

Como se ha señalado, ya hay varios Estados miembros que están valorando alternativas en su legislación nacional para hacer frente a los retos que presenta la IA. Esto a su vez conlleva el riesgo de que se fragmente el mercado único. Es probable que las diferencias entre normas nacionales creen obstáculos para las empresas que deseen vender y utilizar sistemas de IA en el mercado único. Garantizar un enfoque común a escala de la UE permitirá a las empresas europeas beneficiarse de un acceso sencillo al mercado único y respaldar su competitividad en los mercados mundiales.

—————————————————————————————————————-

Informe sobre las repercusiones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica

El informe, adjunto al presente Libro Blanco, analiza el marco jurídico pertinente. Señala las incertidumbres sobre la aplicación de este marco con relación a los riesgos concretos que presentan los sistemas de IA y otras tecnologías digitales.

Llega a la conclusión de que la legislación vigente sobre seguridad de los productos ya recoge un concepto amplio de protección de la seguridad frente a todo tipo de riesgos derivados del producto en función de su uso. No obstante, cabe introducir disposiciones que aborden de manera explícita los nuevos riesgos derivados de las tecnologías digitales emergentes, a fin de ofrecer mayor seguridad jurídica.

  • El comportamiento autónomo de algunos sistemas de IA a lo largo de su ciclo de vida puede conllevar importantes cambios en los productos y tener repercusiones en la seguridad, lo que puede requerir una nueva evaluación de riesgos. Además, es probable que se requiera la supervisión humana como garantía, desde la fase de diseño y a lo largo de todo el ciclo de vida de los productos y sistemas de IA.
  • También pueden valorarse obligaciones explícitas para los productores con relación a los riesgos para la salud mental de los usuarios cuando así se requiera (por ejemplo, en el caso de la colaboración con robots humanoides).
  • La legislación de la UE sobre seguridad de los productos puede prever requisitos específicos para abordar los riesgos derivados de los datos incorrectos en la fase de diseño, así como mecanismos para garantizar que la calidad de los datos se mantenga mientras se usen los productos y sistemas de IA.
  • La opacidad de los sistemas basados en algoritmos puede abordarse mediante requisitos de transparencia.
  • Es posible que sea necesario adaptar y clarificar las normas en vigor en el caso de los programas autónomos comercializados separadamente o descargados en un producto tras la comercialización de este último, cuando tengan repercusiones en la seguridad.
  • Dada la complejidad creciente de las cadenas de suministro en lo que se refiere a las nuevas tecnologías, las disposiciones que exigen de manera específica colaboración entre los agentes económicos de la cadena y los usuarios pueden aportar seguridad jurídica.

Las características de las tecnologías digitales emergentes, como la inteligencia artificial, el internet de las cosas y la robótica, pueden poner en cuestión algunos elementos de los marcos de responsabilidad civil y reducir su eficacia. Algunas de estas características podrían dificultar la trazabilidad de los daños sufridos por una persona, lo que resultaría necesario en el caso de una demanda de responsabilidad civil subjetiva según la mayoría de las normas nacionales. Ello podría aumentar significativamente los costes para las víctimas, y haría más difícil exigir o demostrar la responsabilidad civil de los agentes que no sean los productores.

  • Las personas damnificadas por sistemas de IA deben poder disfrutar del mismo nivel de protección que las personas que hayan sufrido daños causados por otras tecnologías, aunque al mismo tiempo es necesario permitir el avance de la innovación tecnológica.
  • Es necesario valorar todas las alternativas para alcanzar este objetivo, incluidas las posibles modificaciones de la Directiva sobre responsabilidad por los daños causados por productos defectuosos o la posibilidad de seguir adaptando las medidas nacionales en materia de responsabilidad civil. Por ejemplo, la Comisión está recabando opiniones sobre cómo y en qué medida puede ser necesario atenuar las consecuencias de la complejidad mediante una adaptación de la carga de la prueba exigida por las normas nacionales sobre responsabilidad civil en el caso de los daños causados por el funcionamiento de las aplicaciones de IA.

——————————————————————————————————————–

A la luz de todo lo expuesto, la Comisión llega a la conclusión de que, además de las posibles adaptaciones de la legislación vigente, puede que se requiera nueva legislación específica sobre IA, a fin de adaptar el marco jurídico de la UE a la evolución tecnológica y comercial actual y futura.

C. ÁMBITO DE APLICACIÓN DE UN FUTURO MARCO REGULADOR DE LA UE

Un elemento clave para la elaboración de un futuro marco regulador específico sobre la IA es determinar su ámbito de aplicación. La hipótesis de trabajo es que el marco regulador debe resultar de aplicación a los productos y servicios basados en la IA. Por consiguiente, es necesario definir claramente la IA a los efectos del presente Libro Blanco y de toda posible iniciativa de elaboración de políticas del futuro.

En su Comunicación sobre la inteligencia artificial para Europa, la Comisión ofrecía una primera definición de la IA (46). El grupo de expertos de alto nivel perfeccionó esta definición (47).

En los nuevos instrumentos jurídicos, la definición de la IA tendrá que ser suficientemente flexible para adaptarse al progreso técnico al tiempo que mantiene un nivel de precisión adecuado para ofrecer la seguridad jurídica necesaria.

A los efectos del presente Libro Blanco, así como de todo posible debate sobre iniciativas políticas en el futuro, parece importante clarificar cuáles son los principales elementos que integran la IA, a saber: los «datos» y los «algoritmos». La IA puede incorporarse en los equipos informáticos. En lo que se refiere a las técnicas de aprendizaje automático, que constituyen un subapartado de la IA, los algoritmos son entrenados para inferir determinados modelos a partir de un conjunto de datos, a fin de determinar las acciones que se requieren para alcanzar un objetivo determinado. Los algoritmos pueden seguir aprendiendo mientras se utilizan. Aunque los productos basados en la IA pueden funcionar de manera autónoma a partir de su percepción del entorno y sin seguir un conjunto predefinido de instrucciones, su comportamiento lo definen y restringen en gran medida sus desarrolladores. Los objetivos los definen y programan las personas, y los sistemas de IA deben optimizarse para alcanzarlos.

————————————————————————————————————–

En el caso de la conducción automática, por ejemplo, el algoritmo usa, en tiempo real, los datos del vehículo (velocidad, consumo del motor, amortiguadores, etc.) y de los sensores que examinan el entorno global (carretera, señales, otros vehículos, peatones, etc.) para determinar qué dirección tomar, o qué aceleración y velocidad requiere el vehículo para llegar a determinado destino. A partir de los datos observados, el algoritmo se adapta a la situación de la carretera y las condiciones exteriores, como el comportamiento de otros conductores, para ofrecer la conducción más cómoda y segura posible.

—————————————————————————————————————–

La UE cuenta con un marco jurídico estricto para garantizar, entre otros, la protección de los consumidores, la lucha contra las prácticas comerciales desleales y la protección de los datos personales y la privacidad. Además, el acervo de la UE cuenta con normas específicas en el caso de algunos sectores (como la sanidad o el transporte). Estas disposiciones del Derecho de la UE seguirán siendo de aplicación con relación a la IA, aunque puede que se requieran algunas actualizaciones del marco correspondiente a fin de reflejar la transformación digital y el uso de la IA (véase el apartado B). Como consecuencia, aquellos elementos que ya se abordan en la legislación horizontal y sectorial vigente (como es el caso de los equipos médicos (48) o de los sistemas de transporte) seguirán rigiéndose por dicha legislación.

En principio, el nuevo marco regulador en materia de IA debe ser eficaz para alcanzar sus objetivos sin ser excesivamente prescriptivo, lo que podría generar una carga  desproporcionada, en especial para las pymes. Para alcanzar este equilibrio, la Comisión considera que debe seguir un enfoque basado en el riesgo.

Un enfoque basado en el riesgo resulta importante para asegurar que la intervención reguladora sea proporcionada. No obstante, requiere de criterios claros para establecer diferencias entre las distintas aplicaciones de IA, en especial para determinar si entrañan un riesgo elevado o no (49). La definición de qué es una aplicación de IA de riesgo elevado debe ser clara y fácil de entender y de aplicar para todas las partes interesadas. No obstante, incluso cuando no se considere que una aplicación de IA entraña un riesgo elevado, esta debe seguir estando sujeta a las normas vigentes en la UE.

La Comisión considera que, en general, una aplicación de IA determinada debe considerarse de riesgo elevado en función de lo que esté en juego, y considerando si tanto el sector como el uso previsto suponen riesgos significativos, en especial desde la perspectiva de la protección de la seguridad, los derechos de los consumidores y los derechos fundamentales. De manera más específica, una aplicación de IA debe considerarse de riesgo elevado cuando presente la suma de los dos criterios siguientes:

  • En primer lugar, que la aplicación de IA se emplee en un sector en el que, por las características o actividades que se llevan a cabo normalmente, es previsible que existan riesgos significativos. El primer criterio vela por que la intervención reguladora se centre en aquellas áreas en las que, de manera general, se considere que hay más probabilidad de que surjan riesgos. En el nuevo marco regulador deben detallarse de manera específica y exhaustiva los sectores que englobe. Por ejemplo, la sanidad, el transporte, la energía y determinados ámbitos del sector público (50). Esta lista debe revisarse periódicamente y modificarse cuando proceda en función de los desarrollos pertinentes en la práctica.
  • En segundo lugar, que la aplicación de IA en el sector en cuestión se use, además, de manera que puedan surgir riesgos significativos. Este segundo criterio refleja el reconocimiento de que no toda utilización de la IA en los sectores señalados implica necesariamente riesgos significativos. Por ejemplo, si bien la atención sanitaria puede ser un sector importante, un fallo en el sistema de asignación de citas de un hospital no supondrá en principio un riesgo significativo que justifique la intervención legislativa. La evaluación del nivel de riesgo de un uso determinado puede basarse en las repercusiones para las partes afectadas. Por ejemplo, el uso de aplicaciones de IA con efectos jurídicos o similares en los derechos de un particular o de una empresa; aplicaciones que presenten el riesgo de causar lesiones, la muerte, o daños materiales o inmateriales significativos; aplicaciones que produzcan efectos que las personas físicas o jurídicas no puedan evitar razonablemente.

La aplicación de los dos criterios debe garantizar que el ámbito del marco regulador se adapte a lo necesario y ofrezca seguridad jurídica. En principio, los requisitos obligatorios contemplados en el nuevo marco regulador en materia de IA (véase el apartado D a continuación) deben resultar de aplicación únicamente a las aplicaciones que se consideren de elevado riesgo de conformidad con la suma de los dos criterios esbozados.

No obstante lo anterior, también puede haber casos excepcionales en los que, debido a lo que esté en peligro, el uso de aplicaciones de IA para determinados fines se considere de elevado riesgo en sí mismo; es decir, independientemente del sector de que se trate y cuando los requisitos que se presentan más abajo sigan siendo de aplicación (51). Por ejemplo, cabría pensar en lo siguiente:

  • En vista de su importancia para las personas y del acervo de la UE en materia de igualdad de empleo, el uso de las aplicaciones de IA en los procedimientos de contratación y en situaciones que repercutan en los derechos de los trabajadores debe considerarse siempre de «riesgo elevado» y, por consiguiente, los requisitos que se presentan a continuación han de ser aplicables en todos los casos. También pueden considerarse otras aplicaciones específicas con repercusiones en los derechos de los consumidores.
  • El uso de aplicaciones de IA para la identificación biométrica remota52 y otras tecnologías de vigilancia intrusiva deben considerarse siempre de «riesgo elevado» y, por tanto, los requisitos que se presentan a continuación deben resultar de aplicación en todos los casos.

D. TIPOS DE REQUISITOS

Cuando se diseñe el futuro marco regulador de la IA, será necesario determinar los tipos de requisitos legales obligatorios a los que deben atenerse las partes pertinentes. Estos requisitos pueden concretarse mediante normas. Como se señala en el apartado C, además de la legislación vigente, dichos requisitos deben aplicarse a las aplicaciones de IA que entrañen un riesgo elevado únicamente, para garantizar que toda intervención reguladora sea específica y proporcionada.

Teniendo en cuenta las directrices del grupo de expertos de alto nivel y lo previsto hasta el momento, los requisitos para las aplicaciones de IA que entrañen un riesgo elevado pueden contar con las características clave siguientes, que se abordan en mayor detalle en los subapartados posteriores:

  • datos de entrenamiento;
  • datos y registros de datos;
  • información que debe facilitarse;
  • solidez y exactitud;
  • supervisión humana;
  • requisitos específicos en el caso de determinadas aplicaciones de IA, como las empleadas para la identificación biométrica remota.

Con objeto de garantizar la seguridad jurídica, estos requisitos se detallarán para ofrecer una referencia clara a todas las partes que deban respetarlos.

          a) Datos de entrenamiento

Es más importante que nunca promover, reforzar y defender los valores y normas de la UE, en especial los derechos que concede a los ciudadanos el Derecho de la UE. Sin duda, estos esfuerzos pueden extrapolarse a las aplicaciones de IA en venta y empleadas en la UE, y que se analizan en el presente documento.

Como se ha señalado anteriormente, sin datos, no hay inteligencia artificial. El funcionamiento de muchos sistemas de IA y las acciones y decisiones a las que pueden llevar dependen en gran medida del conjunto de datos que se haya utilizado para entrenar los sistemas. Por consiguiente, deben adoptarse las medidas necesarias para garantizar que, en lo que se refiere a los datos utilizados para entrenar los sistemas de IA, se respeten los valores y normas de la UE, concretamente con relación a la seguridad y la legislación vigente para la protección de los derechos fundamentales. Es posible prever los requisitos siguientes con relación a los conjuntos de datos que se empleen para entrenar los sistemas de IA:

  • Requisitos destinados a ofrecer garantías razonables de que el uso posterior de los productos o servicios mediante IA es seguro, en la medida en que cumple los estándares previstos en la normativa de la UE aplicable en materia de seguridad (tanto la vigente como la que puede completarla). Por ejemplo, requisitos que garanticen que los sistemas de IA se entrenan con conjuntos de datos suficientemente amplios y que engloban todos los escenarios pertinentes para evitar situaciones peligrosas.
  • Requisitos destinados a adoptar medidas razonables para velar por que dicho uso posterior de los sistemas de IA no genere resultados que conlleven una discriminación ilícita. Estos requisitos pueden suponer, en particular, la obligación de utilizar conjuntos de datos que sean suficientemente representativos, especialmente para garantizar que todas las dimensiones de género, etnicidad y otras posibles razones de discriminación ilícita queden correctamente reflejadas en estos conjuntos de datos.
  • Requisitos destinados a garantizar que la privacidad y los datos personales estén adecuadamente protegidos mientras se usen los productos y servicios basados en IA. En cuanto a las cuestiones que correspondan a los ámbitos de aplicación del Reglamento General de Protección de Datos y de la Directiva sobre protección de datos en el ámbito penal respectivamente, son estos instrumentos los que las regulan.

          b) Conservación de registros y datos

Teniendo en cuenta algunos elementos como la complejidad y la opacidad de muchos sistemas de IA y las dificultades que pueden surgir al respecto para verificar de manera efectiva el cumplimiento de las normas aplicables y ejecutarlas, se necesitan requisitos con relación a la conservación de registros sobre la programación de algoritmos, los datos empleados para entrenar sistemas de IA de elevado riesgo y, en algunos casos, la conservación de los datos en sí mismos. Básicamente, estos requisitos facilitan el seguimiento y la comprobación de las acciones o decisiones de los sistemas de IA potencialmente problemáticas. Con ello, no solo se facilita la supervisión y la ejecución, sino que además aumentan los incentivos para que los agentes económicos afectados tengan en cuenta desde el principio la necesidad de respetar estas normas.

Para ello, el marco regulador puede exigir la conservación de lo siguiente:

  • registros exactos sobre el conjunto de datos utilizado para entrenar y probar los sistemas de IA, especialmente una descripción de sus principales características y el modo en que se escogió el conjunto de datos;
  • en determinados casos justificados, los propios conjuntos de datos;
  • documentación sobre las metodologías de programación (53) y entrenamiento, los procesos y las técnicas utilizados para construir, probar y validar los sistemas de IA; especialmente con el fin de proteger la seguridad y de evitar sesgos que puedan dar lugar a un quebrantamiento de la prohibición de discriminación, cuando sea necesario.

Los registros, la documentación y, cuando proceda, los conjuntos de datos, deben conservarse durante un período de tiempo limitado y razonable para garantizar la aplicación efectiva de la legislación pertinente. Deben adoptarse medidas para garantizar que todos ellos se faciliten previa solicitud, especialmente para los ensayos o las inspecciones efectuadas por las autoridades competentes. Cuando sea necesario, deben adoptarse medidas para proteger la información confidencial, como los secretos comerciales.

          c) Suministro de información

La transparencia también se requiere más allá de los requisitos de conservación de registros enumerados en el apartado C. A fin de alcanzar los objetivos perseguidos, en particular la promoción del uso responsable de la IA, la creación de confianza y las garantías de reparación cuando proceda, resulta importante que se facilite información adecuada de manera proactiva en torno a cómo usar los sistemas de IA de elevado riesgo.

En este sentido, cabe valorar los siguientes requisitos:

  • Facilitar información clara con respecto de las capacidades y limitaciones del sistema de IA, en especial sobre el objetivo al que se destinan los sistemas, las condiciones en las que se espera que funcione según lo previsto y el nivel de exactitud esperado en la consecución del objetivo mencionado. Esta información es especialmente importante en el caso de los implementadores de los sistemas, pero también puede ser pertinente para las autoridades competentes y las partes afectadas.
  • Independientemente, debe informarse claramente a los ciudadanos de cuándo están interactuando con un sistema de IA y no con un ser humano. Si bien la legislación de protección de datos de la UE ya recoge algunas normas de este tipo (54), es posible que se necesiten requisitos adicionales para alcanzar los objetivos anteriormente mencionados. En tal caso, deben evitarse las cargas innecesarias. Así, no es necesario facilitar dicha información, por ejemplo, en situaciones en las que sea inmediatamente evidente para los ciudadanos que están interactuando con un sistema de IA. Es importante también que la información facilitada sea objetiva, concisa y fácilmente comprensible. La manera en que ha de presentarse la información debe adaptarse al contexto específico.

          d) Solidez y exactitud

Los sistemas de IA (y desde luego las aplicaciones de IA de riesgo elevado) deben ser técnicamente sólidos y exactos para ser fiables. Esto supone que estos sistemas deben desarrollarse de manera responsable y tras una valoración previa adecuada de los riesgos que conllevan. Su desarrollo y funcionamiento han de ser de tal manera que garanticen que los sistemas de IA se comporten con la fiabilidad prevista. Deben adoptarse todas las medidas razonables para reducir al mínimo el riesgo de que se produzcan daños.

En este sentido, cabe valorar los siguientes elementos:

  • Requisitos que garanticen que los sistemas de IA son sólidos y exactos, o al menos que reflejan correctamente su nivel de exactitud, a lo largo de todas las fases de su ciclo de vida.
  • Requisitos que garanticen la reproducibilidad de los resultados.
  • Requisitos que garanticen que los sistemas de IA son capaces de lidiar correctamente con los errores o las incoherencias a lo largo de todas las fases de su ciclo de vida.
  • Requisitos que garanticen que los sistemas de IA son resilientes ante los ataques abiertos y los intentos más sutiles de manipulación de los propios datos o algoritmos, y que, llegado el caso, aseguren que se toman medidas para combatirlos.

          e) Supervisión humana

La supervisión humana ayuda a garantizar que un sistema de IA no socave la autonomía humana o provoque otros efectos adversos. El objetivo de una IA fiable, ética y antropocéntrica solo puede alcanzarse garantizando una participación adecuada de las personas con relación a las aplicaciones de IA de riesgo elevado.

A pesar de que todas las aplicaciones de IA que se tienen en cuenta en el presente Libro Blanco de cara a un régimen jurídico específico se consideran de riesgo elevado, el tipo y nivel adecuado de supervisión humana puede variar de un caso a otro. Dependerá en particular del uso previsto de los sistemas y de los efectos que el uso pueda tener en el caso de las personas físicas o jurídicas afectadas. Ello se entenderá sin perjuicio de los derechos legales previstos en el RGPD cuando el sistema de IA trate datos personales. La supervisión humana puede traducirse en las consecuencias siguientes, entre otras:

  • El resultado del sistema de IA no es efectivo hasta que un humano no lo haya revisado y validado (por ejemplo, la decisión de denegar una solicitud de prestaciones de seguridad social solo podrá adoptarla un ser humano).
  • El resultado del sistema de IA es inmediatamente efectivo, pero se garantiza la intervención humana posterior (por ejemplo, la decisión de denegar una solicitud de tarjeta de crédito puede tramitarse a través de un sistema de IA, pero debe posibilitarse un examen humano posterior).
  • Se realiza un seguimiento del sistema de IA mientras funciona y es posible intervenir en tiempo real y desactivarlo (por ejemplo, un vehículo sin conductor cuenta con un procedimiento o botón de apagado para las situaciones en las que un humano determine que el funcionamiento del vehículo no es seguro).
  • En la fase de diseño, se imponen restricciones operativas al sistema de IA (por ejemplo, un vehículo sin conductor dejará de funcionar en determinadas condiciones de visibilidad reducida en las que los sensores sean menos fiables, o mantendrá una cierta distancia con el vehículo que lo preceda en una situación dada).

          f) Requisitos específicos en el caso de la identificación biométrica remota

La recopilación y el uso datos biométricos (55) para la identificación remota (56), por ejemplo mediante la instalación de sistemas de reconocimiento facial en lugares públicos, entraña riesgos específicos para los derechos fundamentales (57). Las repercusiones de la utilización de sistemas de IA de identificación biométrica remota en los derechos fundamentales pueden variar considerablemente en función del objetivo, el contexto y el alcance de dicho uso.

Las normas de protección de datos de la UE ya prohíben, en principio, el tratamiento de datos biométricos dirigido a identificar de manera unívoca a una persona física, excepto en  condiciones específicas (58). En concreto, con arreglo al RGPD, este tratamiento solo puede tener lugar en un número limitado de situaciones, principalmente por motivos de interés público significativo. En este caso, el tratamiento debe tener lugar sobre la base del Derecho nacional o de la UE, estar sujeto al requisito de proporcionalidad, al respeto del derecho a la protección de los datos y a garantías adecuadas. Con arreglo a la Directiva sobre protección de datos en el ámbito penal, para efectuar dicho tratamiento debe existir una necesidad estricta al respecto; en principio, una autorización de la legislación nacional o de la UE y garantías adecuadas. Puesto que todo tratamiento de datos biométricos dirigido a identificar a una persona física de manera unívoca estaría vinculado con una excepción a una prohibición establecida en la legislación de la UE, dicho tratamiento ha de atenerse a la Carta de Derechos Fundamentales de la UE.

Por consiguiente, de conformidad con las normas vigentes en materia de protección de datos y con la Carta de Derechos Fundamentales de la UE, la IA solo puede utilizarse con fines de identificación biométrica remota cuando dicho uso esté debidamente justificado, sea proporcionado y esté sujeto a garantías adecuadas.

A fin de abordar las posibles preocupaciones sociales con relación al uso de la IA para tales fines en lugares públicos, y con el objetivo de evitar la fragmentación del mercado interior, la Comisión abrirá un debate europeo sobre las circunstancias específicas, si las hubiera, que puedan justificar dicho uso, así como sobre las garantías comunes.

E. DESTINATARIOS

En lo que se refiere a los destinatarios de los requisitos legales que resulten de aplicación en el caso de las aplicaciones de IA de elevado riesgo contempladas anteriormente, existen dos cuestiones fundamentales que deben tenerse en cuenta.

En primer lugar, se plantea la cuestión de cómo repartir las obligaciones entre los agentes económicos que participen en el proceso. Hay numerosas partes involucradas en el ciclo de vida de un sistema de IA. Entre ellas, el desarrollador, el implementador (la persona que utiliza un producto o servicio provisto de IA) y otras partes potenciales (productor, distribuidor o importador, proveedor de servicios, usuario profesional o particular).

La Comisión considera que, en un futuro marco regulador, cada obligación debe dirigirse a la(s) persona(s) que esté(n) en mejor posición para abordar todo posible riesgo. Por ejemplo, mientras que los desarrolladores de IA pueden ser los que estén en mejor posición para abordar los riesgos derivados de la fase de desarrollo, su capacidad de controlar los riesgos durante la fase de uso puede ser más limitada. En este caso, el implementador debe ser objeto de la obligación correspondiente. Ello debe entenderse sin perjuicio de determinar qué parte debe ser responsable de los daños causados, a efectos de la responsabilidad civil ante los usuarios finales u otras partes que sufran daños, y de ofrecer un acceso efectivo a la justicia. Con arreglo a la legislación de la UE sobre responsabilidad con relación a los productos, la responsabilidad civil por los productos defectuosos se atribuye al productor, sin perjuicio de la legislación nacional, que también puede contemplar una indemnización a cargo de otras partes.

En segundo lugar, se plantea la cuestión del alcance geográfico de la intervención legislativa. Según la Comisión, es esencial que todos los agentes económicos que ofrezcan productos o servicios provistos de IA en la UE, independientemente de que estén o no establecidos en la Unión, estén sujetos a los requisitos. De lo contrario, los objetivos de la intervención legislativa, a los que se hacía referencia anteriormente, no podrán alcanzarse plenamente.

F. CUMPLIMIENTO Y EJECUCIÓN

A fin de garantizar que la IA sea fiable y segura y que respete los valores y normas europeos, deben cumplirse en la práctica los requisitos jurídicos aplicables, y las autoridades nacionales y europeas competentes, así como las partes interesadas, deben garantizar su cumplimiento eficazmente. Las autoridades competentes deben ser capaces de investigar los casos particulares y de evaluar su impacto en la sociedad.

En vista del alto riesgo que suponen determinadas aplicaciones de IA para los ciudadanos y nuestra sociedad (véase el apartado A), la Comisión considera en esta fase que sería necesario un control objetivo previo de la conformidad para verificar y garantizar el cumplimiento de algunos de los requisitos obligatorios previamente mencionados por parte de las aplicaciones de elevado riesgo (véase el apartado D). El control previo de la conformidad puede incluir procedimientos de ensayo,

inspección o certificación (59). Puede contar también con controles de los algoritmos y de los conjuntos de datos utilizados en la fase de desarrollo.

Los controles de la conformidad de las aplicaciones de IA de elevado riesgo deben ser parte de los mecanismos de evaluación de la conformidad que ya existen en el caso de un gran número de productos comercializados en el mercado interior de la UE. Cuando ninguno de estos mecanismos existentes sea fiable, puede que sea necesario establecer mecanismos similares, a partir de las mejores prácticas y de la posible aportación de las partes interesadas y de las organizaciones europeas de normalización. Todo nuevo mecanismo debe ser proporcionado y no discriminatorio y utilizar criterios transparentes y objetivos que cumplan con las obligaciones internacionales.

Al diseñar e implantar un sistema que dependa de una evaluación de conformidad previa, debe prestarse especial atención a lo siguiente:

  • Puede que no todos los requisitos enumerados anteriormente se adecúen a una evaluación de conformidad previa. Por ejemplo, el requisito relativo a la información que debe facilitarse no suele prestarse a una verificación compatible con este tipo de evaluación.
  • Debe tenerse especialmente en cuenta la posibilidad de que determinados sistemas de IA evolucionen y aprendan de la experiencia, lo que puede requerir evaluaciones reiteradas a lo largo del ciclo de vida de dichos sistemas.
  • La necesidad de verificar los datos utilizados en el entrenamiento, así como las técnicas, procesos y metodologías de programación y entrenamiento empleados para construir, probar y validar los sistemas de IA.
  • Cuando una evaluación de la conformidad muestre que un sistema de IA no cumple los requisitos, por ejemplo, los relativos a los datos empleados para entrenarlo, los fallos detectados tendrán que ser corregidos mediante, por ejemplo, un nuevo entrenamiento del sistema en la UE de tal manera que se garantice el cumplimiento de todos los requisitos aplicables.

Las evaluaciones de conformidad deben ser de obligado cumplimiento para todos los agentes económicos sujetos a los requisitos, independientemente del lugar en que estén establecidos (60). A fin de limitar la carga para las pymes, puede preverse alguna estructura de apoyo, especialmente mediante los centros de innovación digital. Además, es posible contar con medidas y herramientas especializadas en línea para facilitar el cumplimiento.

Toda evaluación previa de la conformidad debe realizarse sin perjuicio de la supervisión del cumplimiento y de la posterior ejecución por parte de las autoridades nacionales competentes. Este es

el caso de las aplicaciones de IA de riesgo elevado, pero también de otras aplicaciones de IA sujetas a requisitos legales, aunque el elevado riesgo de las aplicaciones en cuestión pueda justificar que las autoridades nacionales competentes presten especial atención a las primeras. Los controles ex post deben facilitarse mediante una adecuada documentación de la aplicación de IA pertinente (véase el apartado E) y, cuando proceda, ofreciendo la posibilidad de que terceros (como las autoridades competentes) prueben dichas aplicaciones. Ello puede resultar especialmente importante cuando surjan riesgos para los derechos fundamentales que dependan del contexto. Este control del cumplimiento debe ser parte de un sistema de vigilancia constante del mercado. Los aspectos relativos a la gobernanza se tratan más detalladamente en el apartado H.

Además, en el caso de las aplicaciones de IA de riesgo elevado y de otras aplicaciones de IA, debe garantizarse una acción judicial efectiva para las partes que hayan sufrido repercusiones negativas derivadas de los sistemas de IA. Las cuestiones relativas a la responsabilidad civil se tratan más detalladamente en el informe sobre el marco de seguridad y responsabilidad civil, adjunto al presente Libro Blanco.

G. SISTEMA DE ETIQUETADO VOLUNTARIO PARA LAS APLICACIONES QUE NO SE CONSIDERAN DE RIESGO ELEVADO

En el caso de las aplicaciones de IA que no se consideren de riesgo elevado (véase el apartado C) y que, por tanto, no estén sujetas a los requisitos obligatorios esbozados (véanse los apartados D, E y F), existe la opción de establecer un sistema de etiquetado voluntario, además de la legislación aplicable.

Con este sistema, los agentes económicos interesados que no estén sujetos a los requisitos obligatorios pueden optar por someterse, con carácter voluntario, bien a dichos requisitos, bien a un conjunto de requisitos similares, creados de manera específica a los efectos del sistema voluntario. Los agentes económicos interesados obtendrán entonces una etiqueta de calidad para sus aplicaciones de IA.

La etiqueta voluntaria permitirá a los agentes económicos interesados mostrar que los productos y servicios provistos de IA que ofrecen son fiables. Además, permitirá a los usuarios distinguir fácilmente si los productos y servicios en cuestión respetan ciertos referentes objetivos y normalizados a escala de la UE, que van más allá de las obligaciones legales aplicables normalmente. Ello contribuirá a incrementar la confianza de los usuarios en los sistemas de IA y fomentará una adopción generalizada de esta tecnología.

Esta opción conlleva la creación de un nuevo instrumento jurídico para establecer un marco de etiquetado voluntario para los desarrolladores y/ o implementadores de los sistemas de IA que no se consideren de alto riesgo. Si bien la participación en el sistema de etiquetado debe ser voluntaria, una vez que el desarrollador o implementador opte por usar la etiqueta, todos los requisitos serán vinculantes. La combinación de estas imposiciones ex ante y ex post debe garantizar que se cumplan todos los requisitos.

H. GOBERNANZA

Se requiere una estructura de gobernanza europea sobre IA en forma de un marco para la cooperación de las autoridades nacionales competentes, a fin de evitar la fragmentación de responsabilidades, incrementar las capacidades de los Estados miembros y garantizar que Europa se provea a sí misma de la capacidad necesaria para probar y certificar los productos y servicios provistos de IA. En este contexto, conviene respaldar a las autoridades nacionales competentes para que puedan cumplir su mandato cuando se utilice la IA.

La estructura de gobernanza europea puede desempeñar diversas funciones, como la de foro para el intercambio periódico de información y mejores prácticas, la detección de tendencias emergentes y el asesoramiento sobre la actividad de normalización y sobre la certificación. Además, debe desempeñar un papel clave a la hora de facilitar la ejecución del marco jurídico, por ejemplo, mediante la formulación de orientaciones, emitiendo dictámenes y compartiendo sus conocimientos técnicos. Para ello, debe apoyarse en una red de autoridades nacionales, así como en redes sectoriales y autoridades reguladoras, tanto a escala nacional como de la UE. Además, un comité de expertos puede prestar asistencia a la Comisión.

La estructura de gobernanza debe garantizar la mayor participación de partes interesadas posible. Debe consultarse a las partes interesadas (organizaciones de consumidores e interlocutores sociales, empresas, investigadores y organizaciones de la sociedad civil) sobre la aplicación y futuro desarrollo del marco.

Dadas las estructuras vigentes en ámbitos como el financiero, el farmacéutico, el de la aviación, el de los productos sanitarios, el de la protección de los consumidores o el de la protección de datos, la estructura de gobernanza propuesta no debe duplicar funciones existentes. Por el contrario, debe establecer vínculos estrechos con otras autoridades competentes nacionales y de la UE en los distintos sectores, a fin de completar los conocimientos técnicos y de ayudar a las autoridades actuales a controlar y supervisar las actividades de los agentes económicos en lo que respecta a los sistemas de IA y los productos y servicios provistos de IA.

Finalmente, si se opta por esto, el desarrollo de las evaluaciones de conformidad podrá encomendarse a organismos notificados designados por los Estados miembros. Los centros de ensayo deben facilitar la auditoría y evaluación independientes de los sistemas de IA, de acuerdo con los requisitos expuestos anteriormente. Las evaluaciones independientes incrementarán la confianza y garantizarán la objetividad. También pueden facilitar el trabajo de las autoridades competentes.

La UE dispone de excelentes centros de ensayo y evaluación y debe desarrollar sus capacidades también en el ámbito de la IA. Los agentes económicos establecidos en terceros países que deseen acceder al mercado interior pueden recurrir tanto a los organismos designados establecidos en la UE como a organismos de terceros países designados para llevar a cabo dicha evaluación, previo acuerdo de reconocimiento mutuo con terceros países.

La estructura de gobernanza relativa a la IA y las posibles evaluaciones de la conformidad que se tratan en el presente documento deben mantener inalteradas las competencias y responsabilidades derivadas del Derecho vigente de la UE en lo que se refiere a las autoridades competentes en sectores o cuestiones específicos (financiero, farmacéutico, aviación, productos sanitarios, protección de los consumidores, protección de datos, etc.).

6. CONCLUSIÓN

La inteligencia artificial es una tecnología estratégica que ofrece numerosas ventajas a los ciudadanos, las empresas y la sociedad en su conjunto, siempre y cuando sea antropocéntrica, ética y sostenible y respete los derechos y valores fundamentales. La IA aporta importantes mejoras de la eficiencia y la productividad que pueden reforzar la competitividad de la industria europea y mejorar el bienestar de los ciudadanos. También puede contribuir a encontrar soluciones a algunos de los problemas sociales más acuciantes, como la lucha contra el cambio climático y la degradación medioambiental, los retos relacionados con la sostenibilidad y los cambios demográficos, la protección de nuestras democracias y, cuando sea necesario y proporcionado, la lucha contra la delincuencia.

Para que Europa aproveche plenamente las oportunidades que ofrece la IA, debe desarrollar y reforzar las capacidades industriales y tecnológicas necesarias. Tal como se establece en la Estrategia Europea de Datos adjunta, ello también requiere de medidas que permitan a la UE convertirse en un centro de datos mundial.

El enfoque europeo sobre la IA aspira a promover la capacidad de innovación de Europa en el sector de la IA, e incentiva el desarrollo y la adopción de una IA ética y fiable en toda la economía de la UE. La IA debe estar al servicio de las personas y ser una fuerza positiva para la sociedad.

Con el presente Libro Blanco y el informe sobre el marco de seguridad y responsabilidad civil adjunto, la Comisión pone en marcha una amplia consulta de la sociedad civil, la industria y el mundo académico de los Estados, para que ofrezcan propuestas concretas en torno a un enfoque europeo sobre la IA. Ambos prevén medios estratégicos para incentivar las inversiones en investigación e innovación, reforzar el desarrollo de habilidades y respaldar la adopción de la IA por parte de las pymes, y ofrecen propuestas en relación con los elementos clave para un futuro marco regulador. Esta consulta permitirá desarrollar un diálogo amplio con todas las partes interesadas que servirá de base a los siguientes pasos que dé la Comisión.

La Comisión invita a que se envíen observaciones sobre las propuestas recogidas en el Libro Blanco mediante una consulta pública abierta disponible en https://ec.europa.eu/info/consultations_es. La consulta será accesible hasta el 19 de mayo de 2020.

Es práctica habitual de la Comisión publicar los comentarios recibidos en respuesta a una consulta pública. Sin embargo, se puede solicitar que los comentarios o ciertas partes de los mismos sean confidenciales. De ser así, indique claramente en la portada de su documento que no deben hacerse públicos y remita también una versión no confidencial a la Comisión para su publicación

——————————————————————————————————————–

(1) Inteligencia artificial para Europa [COM(2018) 237 final].

(2) https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next-commission_es.pdf

(3) COM(2020) 66 final.

(4) La inteligencia artificial y la digitalización en general son motores clave de las ambiciones contempladas en el Pacto Verde Europeo. No obstante, se estima que la huella medioambiental actual del sector de las TIC se sitúa por encima del 2 % del conjunto de emisiones mundiales. La Estrategia Digital Europea que acompaña al presente Libro Blanco propone medidas de transformación ecológica para el sector digital.

(5) Las herramientas de inteligencia artificial pueden ofrecer una oportunidad para proteger mejor a los ciudadanos de la UE de la delincuencia y los actos de terrorismo. Este tipo de herramientas podrían, por ejemplo, ayudar a detectar propaganda terrorista en línea, descubrir transacciones sospechosas en la venta de productos peligrosos, detectar objetos peligrosos ocultos o productos y sustancias ilícitos, ofrecer asistencia a los ciudadanos en situaciones de emergencia y servir de orientación al personal de primera intervención.

(6) COM(2019) 640 final.

(7) Aunque puede que se requieran medidas adicionales para evitar y combatir el uso abusivo de la inteligencia artificial con fines delictivos, se trata de una cuestión independiente del ámbito del presente Libro Blanco.

(8) COM(2019) 168.

(9) Por delante de Japón (30 %) y los EE. UU. (28 %). Fuente: CapGemini (2019).

(10) «10 imperatives for Europe in the age of AI and automation», McKinsey, 2017.

(11) COM(2018) 795.

(12) IDC (2019).

(13) Gartner (2017).

(14) Por soluciones neuromórficas se entiende todo sistema de muy gran escala compuesto por circuitos integrados que imitan la arquitectura neuronal biológica  del sistema nervioso.

(15) Los ordenadores cuánticos tendrán la capacidad de procesar en fracciones de segundos conjuntos de datos mucho más amplios y numerosos que los ordenadores de mayor rendimiento de la actualidad, lo que permitirá el desarrollo de nuevas aplicaciones de IA en los distintos sectores.

(16) Inteligencia artificial para Europa [COM(2018) 237].

(17) Plan coordinado sobre la inteligencia artificial [COM(2018) 795].

(18) COM(2018) 237.

(19) El futuro Fondo Europeo de Defensa y la Cooperación Estructurada Permanente (CEP) también ofrecerán oportunidades de investigación y desarrollo en el ámbito de la inteligencia artificial. Estos proyectos  deben sincronizarse con los programas civiles de inteligencia artificial más generales de la UE.

(20)  https://ec.europa.eu/jrc/en/publication/academic-offer-and-demand-advanced-profiles-eu.

(21) ec.europe.eu/digital-single-market/en/news/digital-innovation-hubs-helping-companies-across-economy-make-most- digital-opportunities.

(22) www.Ai4eu.eu.

(23) https://europa.eu/investeu/home_es.

(24) Fáciles de encontrar, accesibles, interoperables y reutilizables, tal como se contempla en el informe final y el Plan de Acción del Grupo de Expertos en datos FAIR de la Comisión, de 2018 (https://ec.europa.eu/info/sites/info/files/turning_fair_into_reality_1.pdf).

(25) https://www.oecd.org/going-digital/ai/principles/.

(26) En el marco del Instrumento de Asociación, la Comisión financiará un proyecto de 2,5 millones EUR que facilitará la cooperación con socios de mentalidad similar, a fin de promover las directrices éticas en materia de IA de la UE y de adoptar principios y conclusiones operativas.

(27) Presidenta von der Leyen, «Una Unión que se esfuerza por lograr más resultados. Mi agenda para Europa», página 17.

(28) COM(2018) 237.

(29) COM(2018) 795.

(30) https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines#Top.

(31) COM(2019) 168.

(32) Como la ciberseguridad, los problemas vinculados a las aplicaciones de IA en infraestructuras clave, o el uso malintencionado de la IA.

(33) Según el trabajo de investigación del Consejo de Europa, un gran número de derechos fundamentales podría verse afectado por el uso de la IA (https://rm.coe.int/algorithms-and-human-rights-en-rev/16807956b5).

(34) El Reglamento General de Protección de Datos y la Directiva sobre la privacidad y las comunicaciones electrónicas (nuevo Reglamento sobre la privacidad y las comunicaciones electrónicas en fase de negociación) aborda estos riesgos, aunque puede que sea necesario examinar si los sistemas de IA plantean riesgos adicionales. La Comisión supervisará y evaluará la aplicación del RGPD de manera continuada.

(35) El Comité consultivo para la igualdad de oportunidades entre mujeres y hombres de la Comisión está preparando en la actualidad un dictamen sobre la inteligencia artificial, que analiza, entre otras cuestiones, las repercusiones de esta última en la igualdad de género, y cuya adopción por el Comité está prevista a principios de 2020. La Estrategia de la UE para la igualdad de género 2020-2024 también aborda el vínculo entre la IA y la igualdad de género. La red europea de organismos para la igualdad (Equinet) publicará un informe (de Robin Allen y Dee Masters) titulado «La regulación de la IA: el nuevo papel de los organismos para la igualdad. Cómo hacer frente a los retos en materia de igualdad y no discriminación derivados de la mayor digitalización y uso de la IA», previsto para principios de 2020.

(36) Un ejemplo pueden ser los relojes de pulsera inteligentes para niños. Es posible que este producto no cause daños directos a quienes lo utilizan, pero si no se prevé un nivel mínimo de seguridad, puede convertirse fácilmente en una herramienta de acceso al niño. Es posible que las autoridades encargadas de supervisar el mercado tengan dificultades para intervenir en casos en los que el riesgo no esté vinculado al producto en sí mismo.

(37) Finalmente, en el informe de la Comisión adjunto al presente Libro Blanco, se analizan las repercusiones de la inteligencia artificial, el internet de las cosas y otras tecnologías digitales para la normativa en materia de seguridad y responsabilidad civil.

(38) El marco jurídico de la UE sobre la seguridad de los productos lo componen la Directiva sobre seguridad general de los productos (Directiva 2001/95/CE), a modo de red de seguridad, y varias normas sectoriales que engloban distintas categorías de productos, que van desde las máquinas, los aviones y los vehículos, hasta los juguetes y los productos sanitarios, destinadas a ofrecer un alto nivel de salud y seguridad. La legislación sobre responsabilidad civil por los productos la completan distintos sistemas responsabilidad civil por los daños ocasionados por los productos o servicios.

(39) Directiva 2000/43/CE.

(40) Directiva 2000/78/CE.

(41) Directiva 2004/113/CE; Directiva 2006/54/CE.

(42) Como la Directiva sobre las prácticas comerciales desleales (Directiva 2005/29/CE) y la Directiva sobre los derechos de los consumidores (Directiva 2011/83/CE).

(43) Directiva (UE) 2016/680 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativa a la protección de las personas físicas en lo que respecta al tratamiento de datos personales por parte de las autoridades competentes para fines de prevención, investigación, detección o enjuiciamiento de infracciones penales o de ejecución de sanciones penales, y a la libre circulación de dichos datos.

(44) Directiva (UE) 2019/882, sobre los requisitos de accesibilidad de los productos y servicios.

(45) Por ejemplo, de acuerdo con el Reglamento sobre los productos sanitarios [Reglamento (UE) 2017/745], los programas informáticos destinados a fines médicos por el fabricante se consideran productos sanitarios.

(46) COM(2018) 237 final, p. 1: «El término “inteligencia artificial” (IA) se aplica a los sistemas que manifiestan un comportamiento inteligente, pues son capaces de analizar su entorno y pasar a la acción —con cierto grado de autonomía— con el fin de alcanzar objetivos específicos.

Los sistemas basados en la IA pueden consistir simplemente en un programa informático (p. ej. asistentes de voz, programas de análisis de imágenes, motores de búsqueda, sistemas de reconocimiento facial y de voz), pero la IA también puede estar incorporada en dispositivos de hardware (p. ej. robots avanzados, automóviles autónomos, drones o aplicaciones del internet de las cosas)».

(47) Según la definición del grupo de expertos de alto nivel, p. 8: Los sistemas de inteligencia artificial (IA) son programas informáticos (y posiblemente también equipos informáticos) diseñados por seres humanos que, dado un objetivo complejo, actúan en la dimensión física o digital mediante la percepción de su entorno mediante la adquisición de datos, la interpretación de los datos estructurados o no estructurados, el razonamiento sobre el conocimiento o el tratamiento de la información, fruto de estos datos y la decisión de las mejores acciones que se llevarán a cabo para alcanzar el objetivo fijado.

(48) Por ejemplo, las consideraciones de seguridad y las implicaciones jurídicas son distintas en el caso de los sistemas de IA que ofrecen información médica especializada a los médicos, los sistemas de IA que ofrecen información médica al paciente y los sistemas de IA que ofrecen por sí solos prestaciones médicas al paciente directamente. La Comisión está examinando estos retos de seguridad y responsabilidad civil, que son distintos de la asistencia sanitaria.

(49) Puede que la legislación de la UE ofrezca categorías de «riesgos» distintas a las que se presentan aquí, en función del sector, como sucede, por ejemplo, en el caso de la seguridad de los productos.

(50) El sector público debe incluir ámbitos como el asilo, la migración, los controles fronterizos y el poder judicial, la seguridad social y los servicios de empleo.

(51) Cabe destacar que también otros ámbitos de la legislación de la UE pueden resultar de aplicación. Por ejemplo, cuando las aplicaciones de IA se integren en un producto de consumo, puede que su seguridad esté sujeta a la Directiva sobre seguridad general de los productos.

(52) La identificación biométrica remota debe distinguirse de la autenticación biométrica (esta última es un procedimiento de seguridad que se basa en las características biológicas exclusivas de una persona para comprobar que es quien dice ser). La identificación biométrica remota consiste en determinar la identidad de varias personas con la ayuda de identificadores biométricos (huellas dactilares, imágenes faciales, iris, patrones vasculares, etc.) a distancia, en un espacio público y de manera continuada o sostenida contrastándolos con datos almacenados en una base de datos.

(53) Por ejemplo, información sobre el algoritmo, especialmente sobre qué debe mejorar el modelo, qué importancia se asigna a ciertos parámetros desde el principio, etc.

(54)  En concreto, de acuerdo con el artículo 13, apartado 2, letra f) del RGPD, el responsable del tratamiento facilitará al interesado, en el momento en que se obtengan los datos personales,  la información necesaria sobre la existencia de decisiones automatizadas y determinada información adicional, a fin de garantizar un tratamiento de datos leal y transparente.

(55) Por «datos biométricos» se entienden los «datos personales obtenidos a partir de un tratamiento técnico específico, relativos a las características físicas, fisiológicas o conductuales de una persona física que permitan o confirmen la identificación única de dicha persona, como imágenes faciales o datos dactiloscópicos [huella dactilar]» [artículo 3, apartado 13 de la Directiva sobre protección de datos en el ámbito penal; artículo 4, apartado 14, del RGPD; artículo 3, apartado 18, del Reglamento (UE) 2018/1725].

(56) En lo que se refiere al reconocimiento facial, por «identificación» se entiende que la plantilla de la imagen facial de una persona se compara con otras muchas plantillas almacenadas en una base de datos para averiguar si su imagen está almacenada en ella. La «autenticación» (o «verificación»), por su parte, se refiere habitualmente a la búsqueda de correspondencias entre dos plantillas concretas. Permite la comparación de dos plantillas biométricas que, en principio, se supone que pertenecen a la misma persona; así, las dos plantillas se comparan para determinar si la persona de las dos imágenes es la misma. Este procedimiento se emplea, por ejemplo, en las puertas de control automatizado de fronteras empleadas en los controles fronterizos de los aeropuertos.

(57) Por ejemplo, la dignidad de las personas. Con relación a este aspecto, los derechos al respeto de la vida privada y a la protección de los datos personales son parte primordial de la preocupación en torno a los derechos fundamentales cuando se utiliza la tecnología de reconocimiento facial. Tiene, además, un efecto fundamental en el derecho a la no discriminación y los derechos de grupos específicos, como los niños, las personas mayores o las personas con discapacidad. Además, no deben socavarse los derechos de expresión, asociación y reunión mediante el uso de esta tecnología. Véase: «La tecnología del reconocimiento facial: consideraciones relativas a los derechos fundamentales en el marco de la aplicación de las leyes» (en inglés)  https://fra.europa.eu/en/publication/2019/facial-recognition.

(58) Artículo 9 del RGPD y artículo 10 de la Directiva sobre protección de datos en el ámbito penal. Véase también el artículo 10 del Reglamento (UE) 2018/1725 (aplicable a las instituciones y organismos de la UE).

(59) El sistema debe basarse en los procedimientos de evaluación de la conformidad de la UE —véase la Decisión nº 768/2008/CE o el Reglamento (UE) 2019/881 (Reglamento sobre ciberseguridad)—, teniendo en cuenta las especificidades de la IA. Véase la «Guía azul» sobre la aplicación de la normativa europea relativa a los productos, de 2014.

(60) En lo que se refiere a la estructura de gobernanza pertinente, como los organismos designados para llevar a cabo las evaluaciones de conformidad, véase el apartado H.

27May/10

Modelos de Negocio de Inteligencia Artificial

Modelos de Negocio de Inteligencia Artificial

Las tecnologías de la información y las comunicaciones, TIC´s, manifiestan su incidencia en dos especies principales de modelos de gestión. En primer lugar en un sentido instrumental conforme al cual sirven como un medio transaccional. En un segundo enfoque a nivel finalista que permite replantear las nociones tradicionales de la cadena de producción, la acción estatal, y la interacción social.

Por lo tanto, existe una nueva dimensión en los servicios que son y deben ser provistos por el sector jurídico. Al interior de la Sociedad de la Información, entendida como una nueva era antropológica caracterizada por una estructura innovadora de organización de datos y acceso a los mismos (datos de voz, audio, video, imagen, texto, o sus combinaciones debido a la convergencia), el abogado puede actuar como un consultor experto en la implementación de proyectos tecnológicos amigables basados en la innovación y la creatividad.

El presente documento es una simple contribución para erradicar la brecha digital e ilustrar las bondades que se pueden obtener con la adecuada interpretación de las TIC´s, conllevando a la generación de modelos de desarrollo soportados en una amalgama armónica de los enfoques jurídicos, tecnológicos, económicos, y sociales, en el particular escrito dirigido al campo de la inteligencia artificial (última generación computacional de acuerdo al lex artis de la Sociedad de la Información a la fecha de creación de ésta obra literaria)

Download the PDF file .

Descargar