Nota del editor: la IAPP mantiene una posición neutral en cuestiones de políticas. Publicamos artículos de opinión y análisis de colaboradores para ofrecer a nuestros miembros una amplia gama de puntos de vista en nuestros ámbitos.
Con fecha de 13 de octubre de 2025, se aprobó el Proyecto de Ley que regula los sistemas de IA en su primer trámite constitucional en la Cámara de Diputados (Boletines N.º 15.869-19 y 16.821-19 refundidos) y ahora va a segundo trámite constitucional ante el Senado. Este proyecto, sin duda, ha sido bastante controvertido, en un contexto nacional en el que han surgido varios debates sobre los posibles casos de uso al respecto y la capacidad de frenar o no el avance de esta tecnología.
Entre los principales cambios de la versión aprobada del Proyecto:
- Se agregó en el artículo 1 una mención expresa de que la iniciativa busca otorgar un marco normativo que permita el desarrollo sostenible y ético de la IA al servicio de las personas, respetuoso de los principios democráticos y del Estado de derecho.
- El artículo 2 incluyó una excepción asociada al uso de licencias libres y código abierto, en los componentes del sistema de IA, salvo cuando sean comercializados o puestos en servicio por un proveedor como parte de un sistema de IA de alto riesgo. Asimismo, se indica que en el caso de que, con ocasión de este desarrollo, se produzcan daños, se deberá responder de acuerdo al régimen de responsabilidad civil (actual art. 19 del texto aprobado).
- Se agregó un nuevo artículo 5 que establece obligaciones de transparencia en determinados sistemas de IA, a saber “todo operador de sistemas de IA, que generen contenido sintético de audio, imagen, video o texto, velará por que sus resultados o salidas sean identificables como generados o manipulados de manera artificial”. Este punto va muy de la mano de la normativa europea, al promover deberes de transparencia más allá de las obligaciones de los sistemas de alto riesgo.
- En cuanto a la clasificación de los usos de Sistemas de IA, se ajustó la definición de aquellos Sistemas de “usos de alto riesgo” acorde a su descripción detallada en el Título II, a saber “aquellos usos de sistemas de IA autónomos o componentes de seguridad de productos cuya utilización presente un riesgo significativo en la afectación a los derechos fundamentales de las personas, especialmente si estos sistemas fallan o se utilizan de forma impropia”. Importante es mencionar que el “riesgo significativo” como es definido como cualquier riesgo resultante de la combinación de su gravedad, intensidad, probabilidad de ocurrencia y duración de sus efectos y su capacidad de afectar una o varias personas naturales (art. 3, N.º 4 del texto aprobado).
Sin embargo, en la votación se eliminó del articulado lo relativo al reporte de incidentes, que permitía a la Agencia de Protección de Datos Personales (aún no instalada) conocer de este tipo de asuntos y que el operador debía adoptar las medidas necesarias al respecto. En ese sentido, eliminó la competencia y las materias de fiscalización, así como el procedimiento de infracciones ante la Agencia de Protección de Datos Personales, y mantiene únicamente el procedimiento por responsabilidad civil (art. 18 y 19 del texto aprobado).
También, se rechazó la creación del Consejo Asesor Técnico al Ministerio de Ciencia y Tecnología, que había sido discutido anteriormente, siendo “una instancia de carácter consultivo y permanente que asesoraría al ministro (...) en materias vinculadas al desarrollo, promoción y mejoramiento continuo de sistemas de IA en el país”, que estaba conformado por representantes de diversas carteras de gobierno, como representantes de academia, industria y representantes de la sociedad civil. En ese sentido, los asuntos de IA, quedan radicados en el Ministerio de Ciencias, debiendo “(...) promover, diseñar y elaborar programas orientados a la alfabetización y divulgación ciudadana en materia de IA, y velar por la creación de instrumentos que permitan la compresión de la tecnología y eduquen acerca de los derechos y obligaciones respecto de los usos de los sistemas de IA en los términos indicados en (el Proyecto), sus ventajas, potencialidades y riesgos” (art. 14 inciso segundo del texto aprobado).
Se rechazó la excepción por derechos de autor y la obligación de elaborar y poner a disposición de los titulares o de terceros con intereses legítimos los datos que hayan sido necesarios para entrenar el sistema de IA. Así, solo se mantiene la materia como una de las hipótesis en las que puede existir un incidente (art. 3, N.º 16), es decir, “el uso de un sistema de IA que produzca una vulneración de derechos de autor y conexos”.
Al artículo 17, que aborda el régimen sancionatorio, se agregaron algunas circunstancias particulares del infractor que puedan alterar la cuantía de la multa administrativa, en caso de que proceda, a saber: (f) el beneficio económico obtenido de la infracción y (g) la reincidencia.
Sin duda, la votación en la Cámara de Diputados nos entrega un proyecto con algunos asuntos desarrollados de manera incompleta, sin perjuicio de la discusión a nivel local sobre la necesidad de regular los sistemas de IA teniendo en consideración la inspiración que ha tenido la normativa europea en este proceso. Ahora bien, un aspecto importante de destacar es la falta de un procedimiento administrativo especializado ante posibles infracciones a las obligaciones de los Sistemas de IA, en el que el componente técnico resulta clave para su pleno entendimiento, y que ha surgido a propósito de la designación de algunas autoridades especializadas a nivel internacional en esta materia.
Finalmente, actualmente, se encuentra en segundo trámite constitucional en el Senado, iniciando su discusión en la Comisión de Desafíos del Futuro, Ciencia, Tecnología e Innovación, en la que muchos actores, especialmente desde el Ejecutivo y la sociedad civil, están tremendamente interesados en los elementos que serán incorporados (o no) en la iniciativa.
Juan Pablo González Gutiérrez es abogado, director de HD Group en materia de protección.
