Más allá de la desinformación: deepfakes y el futuro incierto de la democracia

¿Qué sucederá con la democracia cuando el debate público esté saturado de falsedades difíciles de discernir?

Los deepfakes, que son vídeos o audios generados mediante inteligencia artificial que imitan la realidad con gran exactitud, pueden ser engañosos. Son aplicables para una variedad de fines, siendo uno de los más habituales el superponer la cara de un actor sobre otro; por ejemplo, resulta cómico ver a Jim Carrey interpretando a Jack Nicholson en «The Shining» o a Nicolas Cage actuando en todos los roles de «Friends». No obstante, a medida que la tecnología avanza, también lo hacen sus aplicaciones más sombrías.





En 2018, se viralizó un vídeo donde el rostro de Barack Obama fue superpuesto en el del actor Jordan Peele. Este, actuando, profirió absurdos para ilustrar cómo los deepfakes podrían manipular la opinión pública en períodos electorales. Desde entonces, la producción de estos vídeos ha avanzado enormemente, como evidencia el impresionante videoclip de Kendrick Lamar de 2022, en el que el artista se transforma instantáneamente en celebridades como Will Smith, Kobe Bryant y Kanye West, entre otros. La calidad y el realismo de estos vídeos han escalado significativamente en solo cuatro años.

Estos avances tecnológicos resultan tan fascinantes como alarmantes, acercándonos a un futuro donde quizás dejemos de confiar en lo que vemos. Actualmente, es posible observar el impacto potencial de los deepfakes en las elecciones, especialmente si miramos hacia la democracia más extensa del mundo , India. En esta nación, algunos partidos han empezado a crear vídeos falsificados donde actores conocidos parecen criticar al primer ministro Narendra Modi, incitando al electorado a apoyar a la oposición. Este escenario complica la capacidad de tomar decisiones políticas bien informadas.

¿De qué manera los deepfakes están reformulando la democracia en India?

Sujata Paul, integrante del partido Congress, difundió un deepfake en su perfil de X, donde la estrella de Bollywood, Ranveer Singh, critica las promesas incumplidas del primer ministro y los persistentes problemas económicos del país, instando a votar por la oposición. El vídeo fue compartido 2.900 veces, acumuló 8.700 ‘me gusta’ y alcanzó a más de 430.000 personas. Aunque muchos identificaron que el vídeo era falso y X marcó el contenido como manipulado por IA, es razonable pensar que otros miles lo percibieron como auténtico.

En un caso más inquietante, el equipo de un político del sur de la India creó un deepfake en el que el difunto padre del candidato expresaba: «Aunque mi cuerpo ya no esté con ustedes, mi espíritu sigue presente. Mi hijo es el legítimo sucesor del amor, cariño y confianza que ustedes depositaron en mí». Este líder, altamente popular en vida, fue digitalmente ‘revivido’ para impulsar el apoyo a su hijo.

Sin embargo, el uso más significativo y creativo de los deepfakes va más allá de engañar a los votantes o revivir a figuras políticas; se centra en comunicarse de manera efectiva con una población diversa en un país donde se hablan 22 idiomas oficiales y miles de dialectos regionales.

Un candidato puede simplemente grabar un breve mensaje y la tecnología crea la ilusión de que está hablando directamente al votante, en su propio idioma y dialecto. Esto permite crear mensajes extremadamente personalizados, donde parece que el político te habla directamente a ti, mencionando tu nombre y abordando problemas específicos de tu localidad. Esta tecnología incluso puede responder preguntas de los votantes. En los dos meses previos a las elecciones de abril, se hicieron 50 millones de llamadas automatizadas con inteligencia artificial. Mientras que en los Estados Unidos esta práctica es ilegal , en India se está convirtiendo en una estrategia política cada vez más usual.

Esta técnica ya es habitual en India

En las recientes y masivas elecciones indias, donde votaron 640 millones de personas, la industria de los deepfakes políticos alcanzó un valor de 60 millones de dólares. Esto presenta grandes desafíos para los verificadores de hechos , que continuamente monitorean internet para detectar falsificaciones. En este contexto, un político puede fácilmente declarar que cualquier vídeo inconveniente es un deepfake, una situación que se está volviendo común debido a la facilidad para crear vídeos comprometedores.

El impacto de estos engaños es considerable. Durante las elecciones estatales de 2023, la empresa iToConnect realizó 20 millones de llamadas automatizadas para 15 candidatos, incluyendo la voz del ministro en jefe del Estado. Durante las dos semanas previas a las elecciones, los votantes recibían llamadas de treinta segundos que podían ser desde solicitudes de voto hasta saludos personalizados por festividades o cumpleaños. Posteriormente, numerosos votantes se acercaron a las oficinas de los partidos, emocionados por haber sido contactados personalmente y por ser mencionados por su nombre.

Naturalmente, la voz del primer ministro también se ha utilizado para incentivar el voto, especialmente en las áreas más aisladas del país donde la conectividad es escasa y el uso de redes sociales es limitado. Se considera que estas llamadas personalizadas son clave para influir en millones de electores. La ética de muchas de estas técnicas es bastante discutible, y resulta escalofriante pensar en lo complicado que puede llegar a ser el panorama político en el futuro, a medida que esta tecnología se expande y generaliza a nivel mundial.

También en GM

Destacamos