Año tras año, cada vez son más los mexicanos que incorporan el internet de las cosas como una pieza fundamental en su vida cotidiana. De acuerdo con la última versión de la Encuesta Nacional sobre Disponibilidad y Uso de Tecnologías de la Información en los Hogares (ENDUTIH, por sus siglas), casi 8 de cada 10 mexicanos son usuarios de Internet. Esta tendencia ascendente en la digitalización de la sociedad mexicana no sólo refleja su avance tecnológico, sino también destaca la apremiante necesidad de mantenerse a la vanguardia ante una revolución tecnológica que transforma todo a su paso.

La inteligencia artificial (IA) se ha consolidado como una herramienta tecnológica transformadora, al cambiar la realidad de los sectores en los que deciden adoptarla. De acuerdo con el Índice Latinoamericano de Inteligencia Artificial de 2023 (ILIA), México lidera como el tercer país de la región con la mayor adopción de inteligencia artificial. Esto, inevitablemente, nos lleva a reflexionar sobre su relación intrínseca con el derecho de protección de datos personales en México.

México cuenta con uno de los primeros marcos regulatorios en materia de protección de datos personales. Se rige por la Ley Federal de Protección de Datos Personales en Posesión de los Particulares (LFPDPPP) de 2010, que establece los principios fundamentales para el tratamiento de datos personales para el sector privado, y por la Ley General de Protección de Datos Personales en Posesión de Sujetos Obligados (LGPDPPSO) de 2017, que regula los tratamientos realizados por cualquier autoridad, entidad, órgano y organismo de los poderes ejecutivo, legislativo y judicial, así como de órganos autónomos y partidos políticos. Ambas leyes son aplicadas por el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI).

Aunque en México no existe una ley específica sobre IA, se está trabajando a través de la Alianza Nacional de Inteligencia Artificial (ANIA), en el Senado de la República Mexicana, en crear una propuesta de regulación en donde se consideren aspectos que van desde la ciberseguridad, la privacidad, los usos éticos de la IA y el aprovechamiento de la misma.

Iniciemos por las buenas noticias: la IA hoy en día es utilizada cada vez más en México, tanto por el sector privado, académico, sociedad civil y el sector público. Para ejemplificar su impacto en dichos sectores, podemos tomar el caso del Hospital Luis Sánchez Bulnes, en donde Microsoft y la Asociación para Evitar la Ceguera generaron un algoritmo basado en IA para detectar con mayor precisión la ceguera en recién nacidos por medio de una fotografía del fondo del ojo. Otro ejemplo, ahora en el sector público, es la implementación en la Ciudad de México, Estado de México, Quintana Roo, Oaxaca, Puebla y Nuevo León del convenio para implementar una solución de IA en forma de chatbot para que la ciudadanía pueda reportar casos de corrupción. Ejemplos como estos hay más.

Sin embargo, a pesar de sus beneficios, la IA plantea desafíos significativos en términos de la protección de los datos personales. Temas como deepfakes, elecciones y doxing son cada vez más escuchados en México. Específicamente, uno de los mayores retos es la identificación y mitigación de riesgos potenciales para dicha información. Esto incluye el sesgo algorítmico, la falta de transparencia en los sistemas de IA, la necesidad de implementar medidas de seguridad robustas para proteger datos personales en entornos complejos y, por supuesto, el garantizar el consentimiento informado y la anonimización de los datos.

Es fundamental que las empresas y el gobierno trabajen de manera conjunta para crear políticas que mitiguen los riesgos inherentes al uso de IA y garanticen que ésta se utilice de manera ética y responsable. A continuación, se presentan acciones específicas que pueden contribuir a una cultura mexicana de responsabilidad y transparencia en el uso de la IA:

  1. Desarrollo de marcos regulatorios sólidos: esto incluye actualizar y fortalecer la legislación existente en materia de datos personales, así como aquellas otras disposiciones legales que concurran con el uso y efectos de la IA. La LFPDPPP enfatiza la importancia de obtener el consentimiento de las personas para el tratamiento de sus datos personales. Es decir, que las empresas que utilizan aplicaciones de IA deben garantizar que la recopilación y el procesamiento de datos personales se ajusten a los fines para los que se obtuvo el consentimiento.

 El INAI desempeña un papel crucial en la supervisión del cumplimiento de las leyes de protección de datos personales.

  1. Transparencia y responsabilidad: las empresas que utilizan sistemas de IA deben ser transparentes sobre su recopilación, procesamiento, tratamiento y utilización de datos personales. Para ello, deben implementarse prácticas de gobierno de datos sólidas y mecanismos de rendición de cuentas para garantizar el respeto de los derechos de sus titulares. Los mexicanos tienen el derecho a acceder, rectificar, cancelar u oponerse al tratamiento de sus datos (derechos ARCO). Los sistemas de IA deben diseñarse para dar cabida a estos derechos, y las organizaciones deben contar con mecanismos para abordar las solicitudes de los interesados.
  1. Evaluación de impacto: antes de implementar sistemas de IA, las organizaciones podrán realizar evaluaciones de impacto para determinar los posibles riesgos que su uso pueda implicar para las personas. Esto incluye evaluar el potencial de sesgo algorítmico y otros riesgos relacionados con la privacidad desde el diseño mismo del sistema. Aunque muchas veces no se considera, el reglamento de la LFPDPPP considera que, en términos del artículo 14 de la LFPDPPP, el responsable deberá adoptar medidas para garantizar un debido tratamiento de los datos personales de los titulares, privilegiando sus intereses y su expectativa razonable de privacidad.

Para tal efecto, la ANIA ya ha implementado un sandbox regulatorio para medir el uso de la inteligencia artificial en nuestro país en un ambiente sano y controlado. 

  1. Seguridad de los datos: es fundamental que, en el uso de IA, los responsables implementen medidas de seguridad robustas para proteger los datos personales contra accesos, usos y divulgación no autorizados y pérdidas o filtraciones. Para esto se pueden utilizar técnicas de cifrado, autenticación de usuarios y monitoreo continuo de la seguridad de los sistemas.
  1. Educación y conciencia: es importante concientizar sobre la importancia de proteger los datos personales involucrados en el uso de IA. Esto podría llevarse a cabo a través de la promoción, la alfabetización digital y la educación en materia de privacidad a la población que presente rezago en dichas áreas.

Dada la naturaleza dinámica, tanto de la IA como de la protección de datos personales, los gobiernos de todo el mundo están adaptando activamente sus marcos legales para abordar los desafíos y preocupaciones emergentes. Podemos concluir que México está trabajando para lograr que la inteligencia artificial y los datos personales puedan coexistir en un ambiente de respeto a los derechos fundamentales de los mexicanos, donde la ética sea la piedra angular que los una. México debe seguir en este camino.