De cara a las elecciones, buscan regular los contenidos manipulados digitalmente

El abogado constitucionalista Andrés Gil Domínguez presentó una acción de amparo electoral preventiva colectiva ante la justicia para que el Estado nacional adopte medidas efectivas que prevengan, alerten y hagan cesar de forma urgente la difusión de deepfakes” o uso no autorizado del servicio de clonación de voz y rostro con Inteligencia Artificial (IA) de cara a las elecciones legislativas nacionales, que se celebrarán el 26 de octubre. El abogado sostuvo que la difusión de estos contenidos (que ya fueron virales en la Ciudad de Buenos Aires y en Córdoba) demanda una “respuesta estatal decidida y coordinada”.

El amparo apunta a la Subsecretaría de Asuntos Políticos, que quedó bajo la órbita de la Jefatura de Gabinete de Ministros. Y le solicita a la funcionaria a cargo, Giselle Castelnuovo, que tome las “medidas efectivas conducentes”.

Gil Domínguez, en la presentación a la que tuvo acceso PERFIL y que recayó en el juzgado federal 1, con competencia electoral, a cargo de María Servini de Cubría, señaló que la IA y los “datos sintéticos” provocan la “distorsión y contaminación” de los datos e información que se produjeron en el pasado y que por otra parte se pueden generar datos, información o conocimiento que nunca existieron “pero complementan o coexisten con aquellos otros”.

Esto no les gusta a los autoritarios

El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.

El abogado constitucionalista recordó que durante la veda electoral previa a las elecciones del 18 de mayo de 2025, para legisladores porteños, se difundieron videos generados con IA en el que el ex presidente y referente del Pro Mauricio Macri llamaba a votar por Manuel Adorni, cabeza de lista de La Libertad Avanza y otro con la imagen de Silvia Lospennato (primera candidata del oficialismo porteño, que quedó en tercer lugar) anunciando el retiro de su candidatura para apoyar a Adorni. Este episodio puso de manifiesto “nuevos desafíos para la integridad electoral», dijo el abogado Gil Domínguez.

Una cuenta libertaria difundió un video creado con IA de Macri promoviendo «votar por Adorni»

“Que un video lograra circular masivamente durante la veda, simulando declaraciones de líderes políticos de alto perfil, pone en evidencia cómo las herramientas digitales pueden ser explotadas para vulnerar las reglas básicas de equidad de la competencia electoral”, advirtió. Al resultar Adorni ganador del comicio, se “profundizó la preocupación sobre el posible impacto real de esta maniobra en la orientación del voto”.

Una vez conocidos los videos, el Tribunal Electoral de la Ciudad Autónoma de Buenos Aires ordenó la eliminación de las piezas audiovisuales en X en un plazo de dos horas y certificó que habían publicado en las cuentas @gordoedicion, @GordoDan_, @TalibanMilei, @LaFuerzadeMilei, @TTendenciaX, @ElTrumpista, @TheRealBuni, @ElPittttt y @TommyShelby_30, todos integrantes del ecosistema de cuentas afines al Gobierno.

Rodrigo de Loredo difundió un video falso del gobernador Martín Llaryora y desató una fuerte reacción oficialista

La viralización de material fake hecho con IA no es exclusiva de la Ciudad de Buenos Aires: a fines de junio, el diputado nacional por Córdoba Rodrigo De Loredo (UCR) difundió un video del gobernador de la provincia, Martín Llaryora (PJ), hecho con inteligencia artificial con la voz e imagen del gobernador pronunciando un discurso que no existió.

Medidas de protección concretas

Entre las medidas de protección concretas, Gil Domínguez pide al Ejecutivo:

  • La remoción rápida de contenidos falsos
  • El etiquetado obligatorio de contenidos generados por IA
  • Sanciones a infractores y cuentas maliciosas
  • Bloqueo territorial y cooperación de plataformas extranjeras
  • Preservación de pruebas y denuncia penal
  • Transparencia y contralor público
  • Derecho de réplica digital

Deepfakes políticos: un fenómeno global

La difusión de videos generados con IA en contextos electorales no ocurre sólo en la Argentina. Un informe de AI Index 2024, elaborado por la Universidad de Stanford en Estados Unidos, advierte que los “deepfakes políticos ya están afectando los procesos electorales en todo el mundo”. En 2024, durante la campaña presidencial en los Estados Unidos partidarios de Trump utilizaron la IA para mostrarlo en situaciones heroicas, mientras que sus detractores usaron imágenes manipuladas para vincularlo con el empresario Jeffrey Epstein. Lo mismo pasó en la campaña de 2022 en Brasil, donde se viralizaron varios “deepfakes” sobre los candidatos Jair Bolsonaro y Lula da Silva, quien resultó electo por el voto popular.

Un antecedente

Antes de la feria judicial de invierno, la Cámara Nacional Electoral confirmó el procesamiento sin prisión preventiva de María Victoria Villaver, empleada de una agencia de medios, como presunta responsable del delito de “inducción con engaños” por haber sido quien subió a la red social Facebook dos videos (que se probó que eran falsos), en los que el dirigente político Mario Negri era acusado de pedir a supuestos empleados un porcentaje de sus sueldos para financiar una campaña electoral.

La Cámara Electoral confirmó un procesamiento por difundir “fake news” en campaña electoral

Negri competía en las PASO de 2021 y perdió la interna. En ese caso, el tribunal electoral determinó que las conductas de Villaver pueden subsumirse en el artículo 140 del Código Penal (inducir al error al sufragante) y reafirmó que el objetivo es “mantener la pureza del sufragio como base de la forma representativa de gobierno”. Y pidió al juez de primera instancia ampliar la investigación.

LT

Más Noticias

Noticias
Relacionadas