Nota del editor: la IAPP mantiene una posición neutral en cuestiones de políticas. Publicamos artículos de opinión y análisis de colaboradores para ofrecer a nuestros miembros una amplia gama de puntos de vista en nuestros ámbitos. 

En el contexto de las elecciones legislativas argentinas del 18 de mayo de 2025, circularon en redes sociales videos manipulados mediante IA que mostraban al expresidente de la Nación Mauricio Macri y a Silvia Lospennato anunciando el retiro de su candidatura para apoyar a Manuel Adorni. Posteriormente, se comprobó que se trataba de deepfakes, es decir, contenidos falsos generados o alterados mediante el uso de IA, con fines de desinformación y manipulación electoral. Videos similares ya habían sido utilizados en campañas electorales anteriores, pero no con la difusión de estos nuevos videos.

A partir de este hecho y considerando que en pocos días tendrían lugar las próximas elecciones nacionales de renovación parcial del Congreso Nacional—el 26 de octubre de 2025—un reconocido abogado local promovió una acción de amparo electoral preventiva colectiva. El objetivo de la medida era que el Estado Nacional—a través de la Jefatura de Gabinete, el Ministerio del Interior y la Subsecretaría de Asuntos Políticos—adoptara medidas urgentes y efectivas para prevenir y detener la difusión de deepfakes o de cualquier uso no autorizado de servicios de clonación de voz e imagen durante el proceso electoral, sobre todo considerando el fuerte impacto que este tipo de conductas puede tener en el electorado y en la elección en general. Al mismo tiempo, se recordaban los casos similares que sucedieron en otros países en dónde se cree que este tipo de conductas tuvo un efecto relevante en elecciones pasadas.

Según el escrito inicial de la medida cautelar, los deepfakes constituyen una amenaza directa al sistema democrático, ya que tienen el potencial de producir los siguientes efectos:

ADVERTISEMENT

Radarfirst- Looking for clarity and confidence in every decision? You found it.
  • Inducir a error al electorado
  • Propagar desinformación
  • Distorsionar el debate público
  • Erosionar la legitimidad de candidatos, partidos e instituciones electorales

Todo lo anterior, con una afectación significativa al régimen democrático.

Al mismo tiempo, la medida remarca que la rápida viralización de este tipo de videos dificulta la reacción oportuna y la reparación del daño, incluso cuando los contenidos falsos son desmentidos posteriormente por distintos medios y canales. De alguna manera, el daño provocado no permite devolver las cosas a su estado anterior en un tiempo oportuno.

La medida también subraya que la transparencia y equidad del proceso electoral son condiciones esenciales para la validez de la democracia, y que los poderes públicos tienen la obligación de remover cualquier obstáculo que afecte el derecho humano y constitucional a elegir libremente a sus representantes, un principio que se desprende de la mayoría de las constituciones alrededor del mundo.

Entre las medidas concretas propuestas para mitigar los riesgos en la circulación de estos videos incluyen:

  • Remoción rápida de contenidos falsos durante períodos críticos como la veda electoral. Se espera una mayor rapidez y proactividad en este período inmediatamente previo a la votación.
  • Etiquetado obligatorio de material generado con IA.
  • Sanciones y bloqueos a cuentas reincidentes o maliciosas. Se requiere que distintos proveedores y plataformas actúen con mayor celeridad ante los distintos pedidos de remoción en el caso de cuentas reincidentes.
  • Cooperación internacional con plataformas digitales y bloqueo territorial de contenidos ilícitos.
  • Preservación de pruebas y denuncias penales ante el uso engañoso de IA, de forma tal de poder utilizarlo eventualmente en futuros reclamos.
  • Informes públicos de transparencia y colaboración con verificadores independientes de datos.
  • Derecho de réplica digital para las personas afectadas por los deepfakes, aunque tenga lugar luego de la elección de que se trate.

Por otro lado, la medida sostiene que la irrupción de los deepfakes pone en crisis la confianza pública y la integridad del voto, al introducir falsedades difíciles de detectar y remover. Se argumenta además que su utilización podría constituir una violación al artículo 140 del Código Penal Argentino, que sanciona con prisión a quien, mediante engaños, induzca a otro a votar de determinada manera o a abstenerse de hacerlo.

Asimismo, se destaca que los estándares internacionales de derechos humanos—como los artículos 23 de la Convención Americana sobre Derechos Humanos y 25 del Pacto Internacional de Derechos Civiles y Políticos—imponen al Estado el deber de garantizar elecciones auténticas y libres de interferencias tecnológicas o informativas.

En suma, esta acción busca no solo proteger la integridad del proceso electoral argentino, sino también generar una discusión acerca de la responsabilidad en el uso de estas tecnologías de IA en contextos democráticos. La causa aún se encuentra pendiente de resolución judicial final.

Diego Fernández es socio de la firma argentina Marval O’Farrell Mairal y es country leader para Argentina de la IAPP.