Nota del editor: la IAPP mantiene una posición neutral en cuestiones de políticas. Publicamos artículos de opinión y análisis de colaboradores para ofrecer a nuestros miembros una amplia gama de puntos de vista en nuestros ámbitos.
La inteligencia artificial está transformando rápidamente diversos sectores a nivel global, y Argentina no es la excepción.
Debajo, damos una visión general acerca de (i) las directrices establecidas por el Gobierno de la Provincia de Buenos Aires para el uso de la inteligencia artificial generativa en la administración pública, (ii) los resultados preliminares de un programa piloto que evaluó el uso estratégico y responsable de esta tecnología en el sistema judicial argentino y (iii) de las recomendaciones emitidas por el Colegio de Abogados de Rosario para la implementación ética y responsable de la IA generativa en la práctica jurídica.
1. Directrices para el uso de inteligencia artificial generativa en la administración pública de la Provincia de Buenos Aires
El Gobierno de la Provincia de Buenos Aires, a través de la Dirección Provincial de Innovación Digital emitió directrices para el uso de la inteligencia artificial generativa en la administración pública. Estas directrices, presentadas en un anexo, buscan establecer una guía y pautas mínimas para los organismos de la administración pública bonaerense que deseen utilizar sistemas de IAGen.
Objetivo y alcance
El objetivo principal de estas directrices es orientar el uso de la IAGen, priorizando el respeto por los derechos fundamentales de las personas, la confidencialidad, privacidad e integridad de la información, y el cumplimiento de las normativas y prácticas de seguridad informática. El alcance de estas directrices se extiende a todas las personas que interactúan con sistemas de IAGen en el ámbito de la administración pública de la Provincia de Buenos Aires, independientemente de su modalidad laboral o de contratación.
Enfoque y postulados
El enfoque principal de las directrices es la prevención y la responsabilidad demostrada, buscando evitar la vulneración de los derechos humanos. Para ello, se establecen los siguientes postulados:
- Uso responsable: la mitigación de riesgos debe ser un parámetro rector en el uso de modelos de lenguaje de IA generativa.
- Supervisión humana: se requiere un control humano previo y posterior, evitando delegar la toma de decisiones a la IAGen.
- Alfabetización y capacitación permanente: se promueve la educación continua sobre las nuevas tecnologías.
- Evaluación de impacto: se debe realizar una evaluación del impacto de la IAGen según su ámbito de aplicación.
Lineamientos generales
Las directrices establecen lineamientos generales para el uso de la IAGen, incluyendo:
- Autorización de acceso y uso: el personal debe obtener la aprobación de su superior jerárquico para utilizar las herramientas de IA.
- Comportamiento ético: los usuarios deben actuar de forma ética y profesional, con responsabilidad, compromiso, confidencialidad, dignidad y respeto.
- Transparencia: los sistemas de IA deben ser transparentes, ofreciendo información sobre sus procesos de funcionamiento.
2. Resultados preliminares del programa piloto de uso estratégico y responsable de IAGen en la justicia argentina
Por otro lado, el Poder Judicial de Argentina llevó a cabo un programa piloto para evaluar el uso estratégico y responsable de la IA generativa en el ámbito judicial. Este programa, liderado por la Junta Federal de Cortes y Superiores Tribunales de Justicia de las Provincias Argentinas y de la Ciudad Autónoma de Buenos Aires (JuFeJus) y el Laboratorio de Innovación e Inteligencia Artificial de la Facultad de Derecho de la Universidad de Buenos Aires (UBA-IALAB), tuvo como objetivo principal mejorar la eficiencia y calidad de las tareas judiciales.
Objetivos y antecedentes
Además de evaluar el uso de la IA generativa, el programa buscó sensibilizar y capacitar a los integrantes de los órganos judiciales en esta tecnología, promoviendo un uso ético y responsable de herramientas como ChatGPT y Gemini. El programa se basó en trabajos previos de UBA-IALAB, incluyendo una guía de directrices para el uso de ChatGPT e IA generativa de texto en la justicia y un estudio sobre el impacto de la IA generativa en el trabajo.
Metodología y etapas
El programa piloto se desarrolló en varias etapas:
- Etapa 1: se establecieron las bases metodológicas, incluyendo la metodología de medición, la selección de tareas y subtareas, y los métodos de análisis de resultados.
- Etapa 2: se realizaron pruebas de uso de IAGen en tareas judiciales, siguiendo la metodología propuesta por UBA-IALAB y JuFeJus.
- Etapa 3: se sistematizaron los resultados obtenidos, recopilando datos y analizando lecciones aprendidas, desafíos y riesgos.
- Etapa 4: se documentaron y difundieron los resultados, con el objetivo de fomentar la adopción estratégica, ética y responsable de la IAGen en la justicia.
- Etapa 5: se elaborará una guía de recomendaciones y directrices para el uso adecuado de la IAGen en la administración de justicia, así como un modelo de acordada reglamentaria.
Resultados preliminares
Las pruebas piloto arrojaron resultados preliminares sobre el desempeño de herramientas como ChatGPT y Gemini en diversas tareas judiciales. Se evaluó su uso en diferentes jurisdicciones, fueros e instancias, incluyendo la redacción de documentos, la extracción de datos, el análisis de jurisprudencia y la generación de respuestas a preguntas jurídicas.
Los resultados indicaron que la IAGen puede mejorar la eficiencia en tareas judiciales, pero su efectividad depende de la habilidad de los usuarios y existen desafíos relacionados con la anonimización de datos y la protección de la información.
3. Recomendaciones para la implementación ética y responsable de inteligencia artificial generativa en la práctica jurídica (Colegio de Abogados de Rosario)
Por último, el Colegio de Abogados de Rosario formuló recomendaciones para la implementación ética y responsable de la inteligencia artificial generativa en la práctica jurídica. Estas recomendaciones buscan guiar a los profesionales del derecho en el uso de esta tecnología, considerando los problemas que se generan por las dificultades de algunos profesionales para valorar las prácticas relacionadas con las nuevas tecnologías.
Consideraciones y fundamentos
Las recomendaciones se basan en estándares globales establecidos por organismos internacionales como las Naciones Unidas, la UNESCO y la OCDE, que enfatizan la protección de los derechos fundamentales, la dignidad humana y el estado de derecho. También se consideran el Reglamento de inteligencia artificial de la Unión Europea (AI Act, como se reconoce en inglés), las regulaciones de colegios y asociaciones profesionales en diversos países (como Estados Unidos), y los protocolos y recomendaciones de jurisdicciones nacionales en Argentina.
Principios y enfoque
Las recomendaciones destacan la importancia de la supervisión humana, la transparencia, la prevención de sesgos algorítmicos y la protección de los datos personales. Se busca promover un uso responsable, ético y moral de la IA generativa por parte de los profesionales del derecho.
Implicaciones y desafíos
Los tres documentos resaltan los beneficios y desafíos que plantea la IA para Argentina. Si bien la IA ofrece un gran potencial para mejorar la eficiencia y la calidad en diversos ámbitos, también plantea riesgos éticos y legales que deben abordarse de manera proactiva. Es fundamental establecer reglas claras que fomenten un uso responsable y ético de la IA, protegiendo al mismo tiempo los derechos fundamentales de las personas.
Diego Fernández es socio de la firma argentina Marval O’Farrell Mairal y es asimismo miembro del IAPP Advisory Board.