Archivos de la etiqueta: Deepfake

26Sep/25

Ley nº 2502 de 28 de julio de 2025

Ley nº 2502 de 28 de julio de 2025, por medio de la cual se modifica y establece un agravante al artículo 296 de la Ley 599 del 2000, Código penal Colombiano y se dictan otras disposiciones.

EL CONGRESO DE COLOMBIA,

DECRETA:

ARTÍCULO 1°. Objeto. La presente Ley tiene por objeto modificar y establecer un agravante al artículo 296 de la Ley 599 del 2000 – Código Penal Colombiano referente al delito de falsedad personal para la modalidad de suplantación utilizando Inteligencia Artificial -IA-. Así mismo, establece directrices para la formulación de políticas públicas en materia de prevención y control del uso indebido de la IA en la suplantación de identidad.

ARTÍCULO 2°. Definiciones. Para los efectos de esta ley, se entiende por:

– DeepFake: Es la creación, modificación y utilización de un registro audiovisual, incluidas fotografías, vídeos, imágenes o grabaciones de sonido falsos, mediante Inteligencia Artificial -IA- de manera que el registro parezca auténtico del discurso o conducta real de un individuo.

– Identidad: La identidad se refiere al conjunto de rasgos, atributos o características propias de una persona que la distinguen de otras. En el ámbito legal, la identidad reconoce a una persona como sujeto de derechos y deberes y comprende aspectos como el nombre, la nacionalidad, la fecha de nacimiento, el estado civil, los datos biométricos de rasgos corporales y otros datos personales que permiten identificar de manera única a un individuo.

– Imagen: La imagen hace referencia a la proyección externa de una persona, que incluye aspectos físicos, como el rostro, la voz y el cuerpo, así como aspectos emocionales y reputacionales. En el contexto legal, la imagen está protegida contra su uso no autorizado o su manipulación, especialmente cuando pueda causar perjuicio a la persona.

– Individualidad: Se refiere a las características de un individuo que lo hace distinto a los demás moldeado por una alta gama de factores, manifestándose a través de los rasgos personales, comportamientos y actitudes.

ARTÍCULO 3°. Modifíquese el artículo 296 de la Ley 599 del 2000 – Código Penal Colombiano – y adiciónese un inciso el cual quedará así:

“ARTÍCULO 296. FALSEDAD PERSONAL. El que con el fin de obtener un provecho para sí o para otro, o causar daño, sustituya o suplante a una persona o se atribuya nombre, edad, estado civil, o calidad que pueda tener efectos jurídicos, incurrirá en multa, siempre que la conducta no constituya otro delito.

Cuando la falsedad personal se realizare con la utilización de Inteligencia Artificial la multa se aumentará hasta en una tercera parte, siempre que la conducta no constituya otro delito.”

ARTÍCULO 4°. El Gobierno Nacional, la Fiscalía General de la Nación, la Policía Nacional, el Ministerio de Justicia y del Derecho en coordinación con el Ministerio de Tecnologías de la Información y Comunicaciones, formulara una Política Pública, relacionadas con el uso de Inteligencia Artificial (IA) destinada a engaño o daño y que pueden tener consecuencias negativas para la privacidad, la dignidad humana, la seguridad, la democracia y la credibilidad de las fuentes de información, que contenga como mínimo los siguientes lineamientos:

1. Marco Ético: Definir principios y directrices para el uso de la IA. garantizando un ecosistema digital inclusivo, dinámico, sostenible e interoperable para una IA confiable. Promoviendo el intercambio seguro, justo, legal y ético de datos y asegurando que las herramientas desarrolladas respeten la privacidad y los derechos humanos.

2. Colaboración Intersectorial: Establecer estrategias que fomenten la colaboración entre entidades gubernamentales como el Ministerio de Justicia, el Ministerio de las Tecnologías de la Información y las Comunicaciones, la Fiscalía General de la Nación, la Policía Nacional, el sector privado, la academia y la sociedad civil para compartir conocimientos, recursos y estrategias que identifiquen riesgos que afecten los derechos de autor y suplantación de identidad personal.

3. Educación y Capacitación: Implementar programas de educación y capacitación para desarrollar talento local en IA, con un enfoque en la ciberseguridad y la ética digital.

4. Desarrollo de Tecnología: Impulsar la investigación, el desarrollo y la inversión privada para estimular la innovación en una IA confiable que se centre en cuestiones técnicas difíciles y en las consecuencias sociales, jurídicas y éticas y las cuestiones normativas relacionadas con la IA. En lo que respecta a la Fiscalía General de la Nación, deberá adoptar herramientas de IA específicas para la detección de deepfakes, fraudes y suplantación de identidad, utilizando algoritmos avanzados de aprendizaje automático y procesamiento de lenguaje natural.

5. Transparencia y Gobernanza de IA: Promover la transparencia en los algoritmos de IA y establecer un sistema de gobernanza que incluya auditorías y revisiones periódicas.

6. Cooperación Internacional: Fomentar alianzas internacionales para compartir mejores prácticas y tecnologías avanzadas en la lucha contra la suplantación de identidad y los deepfakes.

7. Respuesta Rápida: Establecer un protocolo de respuesta rápida para actuar eficientemente ante incidentes de suplantación de identidad y los deepfakes. detectados por las herramientas de IA.

8. Relaciones Internacionales: Promover y colaborar con otros países de la región y a nivel global en la implementación de acuerdos internacionales que incentiven el desarrollo de tecnologías y políticas públicas contra la suplantación de identidad y deepfakes.

Parágrafo. El Gobierno Nacional, la Fiscalía General de la Nación y la Policía Nacional, contarán con un plazo de dos (2) años para la formulación de las acciones e iniciativas dispuestos en el presente artículo.

ARTÍCULO 5°. La Fiscalía General de la Nación, en el marco de sus competencias y utilizando los sistemas de información judicial existentes, deberá garantizar la trazabilidad de los casos relacionados con uso de inteligencia artificial para cometer falsedad personal. Este registro deberá contener información sobre metodologías utilizadas, su impacto y las medidas judiciales aplicadas.

Para fines de análisis criminal, la Fiscalía podrá consolidar estadísticas e informes sobre los patrones delictivos y riesgos asociados al uso de tecnologías digitales, los cuales será de carácter general sin comprometer la reserva de la información. El acceso a este registro será de uso exclusivo para entidades que ejerzan funciones de policía judicial, entidades de la rama judicial y de seguridad y se realizará un informe anual sobre tendencias y riesgos emergentes que será presentado al Congreso de la República.

ARTÍCULO 6°. Vigencia y derogatorias. La presente Ley rige a partir de su sanción, promulgación y publicación en el Diario Oficial y deroga las disposiciones que le sean contrarias. La modificación del artículo 296 de la Ley 599 de 2000, establecida en esta ley, comenzará a regir un (1) año después de su sanción y promulgación.

EL PRESIDENTE DEL HONORABLE SENADO DE LA REPÚBLICA, EFRAIN CEPEDA SARABIA

EL SECRETARIO GENERAL DEL HONORABLE SENADO DE LA REPUBLICA, DIEGO ALEJANDRO GONZALEZ GONZALEZ

EL PRESIDENTE DE LA HONORABLE CÁMARA DE REPRESENTANTES, JAIME RAUL SALAMANCA TORRES

EL SECRETARIO GENERAL DE LA H. CÁMARA DE REPRESENTANTES, JAIME LUIS LACOUTURE PEÑALOZA

«POR MEDIO DE LA CUAL SE MODIFICA Y ESTABLECE UN AGRAVANTE AL ARTÍCULO 296 DE LA LEY 599 DEL 2000, CÓDIGO PENAL Y SE DICTAN OTRAS DISPOSICIONES

REPÚBLICA DE COLOMBIA – GOBIERNO NACIONAL

PUBLIQUESE Y CÚMPLASE.

Dada en la ciudad de Bogotá, D.C., a los 28 días del mes de julio del año 2025.

GUSTAVO FRANCISCO PETRO URREGO,

EL MINISTRO DE JUSTICIA Y DEL DERECHO, LUIS EDUARDO MONTEALEGRE LYNETT,

EL MINISTRO DE DEFENSA NACIONAL, PEDRO ARNULFO SÁNCHEZ SUÁREZ,

EL MINISTRO DE TECNOLOGÍAS DE LA INFORMACIÓN Y LAS COMUNICACIONES, JULIAN MOLINA GOMEZ

31Oct/24
Proyecto de Ley

Proyecto de Ley. Expediente 2469-S-2023, de 14 de diciembre de 2023

Proyecto de Ley. Expediente 2469-S-2023, de 14 de diciembre de 2023. Modificación del artículo 128 del Código Penal, Ley 11179 respecto de sancionar delitos contra la integridad sexual.

PROYECTO DE LEY

El Senado y Cámara de Diputados,…

Artículo 1°:

 Modifícase el artículo 128 del Código Penal, el que quedará redactado de la siguiente manera:

“Será reprimido con prisión de tres (3) a seis (6) años el que produjere, financiare, ofreciere, comerciare, publicare, facilitare, divulgare o distribuyere, por cualquier medio, toda representación real o simulada de un menor de dieciocho (18) años dedicado a actividades sexuales explícitas o toda representación real o simulada de sus partes genitales con fines predominantemente sexuales, al igual que el que organizare espectáculos en vivo de representaciones sexuales explícitas reales o simuladas en que participaren dichos menores.

Será reprimido con prisión de cuatro (4) meses a un (1) año el que a sabiendas tuviere en su poder representaciones de las descriptas en el párrafo anterior.

Será reprimido con prisión de seis (6) meses a dos (2) años el que tuviere en su poder representaciones de las descriptas en el primer párrafo con fines inequívocos de distribución o comercialización.

Será reprimido con prisión de un (1) mes a tres (3) años el que facilitare el acceso a espectáculos pornográficos o suministrare material pornográfico a menores de catorce (14) años.

Todas las escalas penales previstas en este artículo se elevarán en un tercio en su mínimo y en su máximo cuando la víctima fuere menor de trece (13) años.”

Artículo 2°: Comuníquese al Poder Ejecutivo.

Juan C. Romero

FUNDAMENTOS

Señora Presidente:

Motiva el presente proyecto la necesidad de cubrir un vacío legal en nuestro Código Penal ante la exposición de las personas, especialmente de menores de edad, a nuevas tecnologías cuyo uso indebido socaban su integridad física, psíquica y moral.

La Deepfake -o ultrafalso-, o también conocida como Deep Synthesis, es una técnica que está revolucionando la creación y distribución de contenidos falsos a una velocidad exponencial en todo el mundo. El término resulta de una combinación de dos palabras “deep” (“profundo”, pero con origen en deep learning-aprendizaje profundo-) y “fake” (falso).

A través del uso de inteligencia artificial (IA), que utiliza algoritmos de síntesis generativa, representados por el aprendizaje profundo y la realidad virtual, se reemplaza la apariencia y la voz de una persona en imágenes o vídeos de manera realista, sin que los hechos hayan sucedido. De esta manera, el rostro, la voz o los movimientos que aparecen en pantalla o material gráfico no pertenecen a esa persona, sino a las de otra, o bien, a una construcción totalmente irreal, planteando desafíos nunca vistos en términos de ética, privacidad y seguridad.

Lo preocupante del caso, es que el uso de las Deepfakes no sólo está revolucionado la creación y distribución de contenido falso, sino también la distribución de material pornográfico y de abuso infantil.

Tal como lo señala un documento reciente del Instituto de Políticas Públicas de Prevención del Grooming de la Cámara de Diputados de la Prov. de Buenos Aires, “la suplantación de identidad de menores de edad en material pornográfico falso, con el consiguiente riesgo de daño psicológico, social y reputacional, plantea cuestiones legales que requieren una respuesta firme y coordinada”. Y agrega que “los riesgos que enfrentan los menores de edad al ser expuestos a Deepfakes pornográficos son inmensos, por lo que es esencial abordar este problema de manera urgente para proteger a los menores de edad y salvaguardar su bienestar emocional, en un mundo cada vez más permeado por tecnologías que pueden ser utilizadas en su contra”.

Un análisis reciente compartido por la revista estadounidense Wired, especializada en tecnología, señala que, en los últimos siete años, al menos 244.625 clips han sido cargados en los 35 principales sitios web dedicados total o parcialmente a alojar videos de pornografía Deepfake.

Solo en los primeros nueve meses de este año, se subieron 113.000 videos a estas plataformas, marcando un aumento del 54% en comparación con todo el 2022 (73.000 piezas de contenido). Según las proyecciones de la investigación, se anticipa que a finales de 2023 se habrán producido más videos que en todos los años anteriores combinados. A pesar de que muchas de estas páginas aclaran que los contenidos, con millones de visualizaciones, no son auténticos, raramente mencionan el consentimiento de quienes aparecen en ellos.

En los Estados Unidos varios estados han regulado las Deepfakes, planteando debates sobre cómo abordar jurídicamente los vídeos pornográficos generados por esta tecnología. Existen algunas corrientes que argumentan que estas restricciones deberían recibir el mismo tratamiento bajo la Primera Enmienda que las prohibiciones de pornografía no consensual, en lugar de estar sujetas a la ley de difamación.

En julio de 2019, se implementó en el Estado de Virginia una ampliación de las leyes dirigidas contra la «pornografía no consensuada», comúnmente conocida como «pornovenganza». Esta modificación busca abarcar en su definición las Deepfakes pornográficas, así como cualquier contenido visual manipulado mediante herramientas digitales.

La difusión de falsos desnudos en Virginia, con la intención de coaccionar, acosar o intimidar a otra persona, puede acarrear una pena de hasta un año de prisión y una multa de 2.500 dólares.

Por su parte, la Unión Europea aprobó recientemente el Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de Inteligencia Artificial y se modifican determinados actos legislativos de la Unión.

Si bien las Deepfakes no tienen una legislación específica, en el caso de España diversas opiniones de juristas de ese país señalan que podrían ser penalizadas por delitos que van desde la violación del derecho a la propia imagen hasta la injuria o delito de odio, dependiendo de sus objetivos y consecuencias.

La Unión Europea, preocupada por el impacto en el número de víctimas femeninas, abordó el fenómeno de la Deepfake como un problema de género. Esto condujo a un exhaustivo estudio realizado por un «Think Tank» europeo compuesto por participantes de Alemania, República Checa y Holanda. Dicho estudio analiza detalladamente el fenómeno desde perspectivas sociológicas y legales, centrándose en las técnicas de Inteligencia Artificial para la manipulación de imágenes, la creación de videos falsos y el clonado de voz.

El análisis abarca la normativa actual en países clave, destacando el desarrollo exponencial en EE. UU. y China, así como la problemática en países sensibles como Taiwán debido a la desinformación generada por estas tecnologías. El marco legal europeo, basado en el Convenio de Estambul del Consejo de Europa, aborda la posibilidad de tipificar el acoso cuando se presenta un comportamiento amenazador que genera temor por la seguridad de otra persona, y regula los actos de carácter sexual no consentidos.

El Protocolo Facultativo de la Convención sobre los Derechos del Niño relativo a la venta de niños, la prostitución infantil y la utilización de niños en la pornografía de las Naciones Unidas, ratificado en nuestro país por Ley N° 25.763, establece que la explotación sexual contra la infancia comprende “toda representación, por cualquier medio, de un niño dedicado a actividades sexuales explícitas, reales o simuladas”.

También incluye este concepto el Convenio de Budapest, primer tratado internacional creado con el objetivo de proteger a la sociedad frente a los delitos informáticos y los delitos en Internet, y que nuestro país ratificó en 2018 a partir de la Ley N° 27.411. Allí se entiende por pornografía infantil, entre otros conceptos, a “…imágenes realistas que representen a un menor adoptando un comportamiento sexualmente explícito”.

Ambos antecedentes, incorporados a nuestro ordenamiento legislativo, refuerzan el sentido del presente proyecto.

Resulta insoslayable entonces, avanzar en un proyecto de ley que incorpore en nuestro Código Penal la regulación de la explotación sexual infantil simulada o virtual, donde un niño, niña o adolescente ha sido incluido, a través de la alteración de imágenes, como partícipe de un acto sexual.

Es crucial señalar que este tipo de contenido no solo viola el derecho a la privacidad y la integridad personal de los menores involucrados, sino que también puede tener consecuencias a largo plazo en su bienestar psicológico y emocional. La divulgación de este material destaca la urgencia de implementar medidas legales para proteger a los niños y garantizar un entorno adecuado para un desarrollo saludable.

Un caso reciente expone el vacío legal de esta problemática. En la provincia de San Juan, Leandro Pérez González, fue eximido este año de toda responsabilidad penal por haber “desnudado” mediante una aplicación de inteligencia artificial a 15 compañeras de la universidad, para luego venderlas como material pornográfico en un sitio web. Las jóvenes pidieron una perimetral y expusieron un vacío legal penal que las dejaba desamparadas. Sin embargo, la investigación viró cuando en los dispositivos del sospechoso se detectaron archivos con contenido de abuso sexual infantil. Pérez González fue detenido este año y la Justicia le dictó tres años de prisión de ejecución condicional por tenencia y distribución de este tipo de material, delito que sí está contemplado en nuestro Código Penal.

En resumen, en nuestro país, cuando hay una producción de imágenes de explotación sexual infantil generadas por inteligencia artificial, o por cualquier mecanismo tecnológico, aún no es delito. La actividad criminal de la explotación sexual infantil es un fenómeno en expansión que exige no sólo la cooperación trasnacional, sino también, y fundamentalmente, una normativa actualizada de los países, que esté a la altura de dicho fenómeno criminal.

Por todo lo expuesto, solicito a mis Pares que acompañen el presente Proyecto de Ley.

Juan C. Romero