El deepfake de Macri aceleró un proyecto para frenar videos truchos en campañas

El video manipulado de Mauricio Macri que circuló durante la última elección en CABA no solo generó polémica en redes sociales: también aceleró el impulso político para ponerle un freno al uso malintencionado de la inteligencia artificial en época de campaña. Tras el escándalo, el diputado nacional Julio Cobos presentó un proyecto de ley para limitar la difusión de estos contenidos generados digitalmente con el objetivo de “proteger al ciudadano de información engañosa”.

El exvicepresidente explicó que tanto el caso del video adulterado de Macri como el de la legisladora Silvia Lospennato fueron los hechos que motivaron su propuesta. “Esto fue perjudicial para la campaña del PRO. No es un chiste, es grave porque se está engañando a la gente”, aseguró Cobos, diferenciándose de los dichos del presidente Javier Milei y algunos de sus funcionarios, quienes minimizaron el episodio y lo calificaron como una simple broma digital.

La iniciativa, sin embargo, logró algo poco común en el Congreso actual: un amplio consenso multipartidario. Además de Cobos, firmaron el proyecto legisladores de varios bloques, como Marcela Pagano de La Libertad Avanza, Margarita Stolbizer de Encuentro Federal, y representantes de Unión por la Patria, entre otros. “Logramos acuerdo y queremos iniciar el debate lo más rápido posible para tener una campaña sana”, agregó el mendocino.

El texto del proyecto define como “contenido manipulado” a cualquier video, audio o imagen generada digitalmente que busque inducir a una persona a creer falsamente que un candidato o autoridad electoral dijo o hizo algo que nunca ocurrió. Los retoques menores que no alteran el sentido del contenido original no están contemplados dentro de la restricción.

Una de las claves de la norma es que apunta directamente a las plataformas digitales con más de 100 mil usuarios. Estas deberán implementar mecanismos técnicos para detectar, rotular y eliminar en menos de 48 horas cualquier contenido engañoso que pueda impactar en la imagen de una figura pública o distorsionar la legitimidad del proceso electoral. Mientras tanto, deberán rotular los materiales sospechosos con un cartel claro: “Este (imagen/video/audio) ha sido manipulado y no es auténtico”.

Además, se exigirá que estas plataformas habiliten herramientas accesibles para que los usuarios puedan reportar contenidos falsos, y que respondan en un plazo máximo de 36 horas. La regulación se aplicará dentro de los 60 días previos a una elección, cuando más alta está la circulación de información política en redes y medios digitales.

En una carta dirigida al presidente de la Cámara, los diputados firmantes alertaron que se trata del “primer proceso electoral con inteligencia artificial generativa en juego”, lo que implica un riesgo inédito para la transparencia democrática. También se refirieron a casos internacionales como el de Estados Unidos, donde el gobierno de Joe Biden consiguió un compromiso voluntario de gigantes tecnológicos como Amazon, Google y Meta para moderar los efectos negativos del desarrollo de IA.

“El avance de estas tecnologías nos obliga a proteger derechos fundamentales como el de informarnos de forma veraz, sin frenar el desarrollo. Por eso esta ley es clave”, sostiene el documento. Ahora, todo depende del ritmo que tome el Congreso. Las elecciones se acercan y el deepfake ya no es solo una curiosidad: es un problema político real.

DATACLAVE.-

Comentarios (by Facebook)