Un pequeño ejército combatiendo una inundación de Deepfakes en las elecciones de la India.

En medio de una elección de alto riesgo celebrada durante una ola de calor sofocante, una tormenta de deepfakes confusos azota a la India. La variedad parece interminable: imitación impulsada por inteligencia artificial, ventriloquía y efectos de edición engañosos. Algunos son groseros, algunos jocosos, algunos tan obviamente falsos que nunca se esperaría que se consideraran reales.

El efecto general es desconcertante, sumándose a un panorama de redes sociales ya inundado de desinformación. El volumen de desechos en línea es demasiado grande para que cualquier comisión electoral lo rastree, y mucho menos lo desmienta.

Un variado grupo de grupos de verificación de hechos vigilantes han surgido para llenar el vacío. Mientras las ruedas de la ley muelen lentamente y de manera desigual, la tarea de rastrear deepfakes ha sido asumida por cientos de trabajadores gubernamentales y grupos privados de verificación de hechos con sede en India.

“Tenemos que estar listos”, dijo Surya Sen, un funcionario forestal en el estado de Karnataka que ha sido reasignado durante las elecciones para dirigir un equipo de 70 personas que buscan contenido engañoso generado por inteligencia artificial. “Las redes sociales son un campo de batalla este año”. Cuando el equipo del Sr. Sen encuentra contenido que creen que es ilegal, informan a las plataformas de redes sociales para que lo eliminen, publiciten el engaño o incluso soliciten que se presenten cargos penales.

Las celebridades se han convertido en un material familiar para trucos políticamente punzantes, incluido Ranveer Singh, una estrella del cine hindi.

Durante una entrevista grabada con una agencia de noticias india en el río Ganges en Varanasi, el Sr. Singh elogió al poderoso primer ministro, Narendra Modi, por celebrar “nuestra rica herencia cultural”. Pero eso no es lo que escucharon los espectadores cuando una versión alterada del video, con una voz que sonaba como la del Sr. Singh y una sincronización de labios casi perfecta, comenzó a circular en las redes sociales.

LEAR  Gran Premio de Mónaco: ¿Necesita la Joya de la Corona de la F1 hacer cambios para mejorar las carreras en Monte Carlo? | Noticias de F1

“Llamamos a estos deepfakes de sincronización de labios”, dijo Pamposh Raina, quien lidera la Unidad de Análisis de Deepfakes, un colectivo de medios indios que abrió una línea de información en WhatsApp donde la gente puede enviar videos y audio sospechosos para ser examinados. Dijo que el video del Sr. Singh era un ejemplo típico de metraje auténtico editado con una voz clonada por inteligencia artificial. El actor presentó una queja ante la Unidad de Delitos Cibernéticos de la Policía de Mumbai.

En estas elecciones, ningún partido tiene el monopolio del contenido engañoso. Otro clip manipulado comenzó con metraje auténtico mostrando a Rahul Gandhi, el oponente más prominente del Sr. Modi, participando en el ritual mundano de jurarse a sí mismo como candidato. Luego se le añadió una pista de audio generada por inteligencia artificial.

En realidad, el Sr. Gandhi no renunció a su partido. Este clip también contiene una burla personal, haciendo que el Sr. Gandhi parezca decir que ya “no podía pretender ser hindú”. El partido gobernante de Modi, el Bharatiya Janata Party, que las encuestas a pie de urna mostraron el sábado que tenía una cómoda ventaja, se presenta como defensor de la fe hindú, y a sus oponentes como traidores o impostores.

A veces, los deepfakes políticos se adentran en lo sobrenatural. Los políticos muertos tienen la tendencia de volver a la vida a través de sorprendentes semejanzas generadas por inteligencia artificial que respaldan las campañas reales de sus descendientes.

En un video que apareció unos días antes de que comenzara la votación en abril, un resucitado H. Vasanthakumar, que murió de Covid-19 en 2020, habló indirectamente sobre su propia muerte y bendijo a su hijo Vijay, quien se postula para el escaño parlamentario que ocupaba su padre en el estado sureño de Tamil Nadu. Esta aparición siguió el ejemplo de otros dos titanes fallecidos de la política tamil, Muthuvel Karunanidhi y Jayalalithaa Jayaram.

LEAR  70 euros por una tumbona en la playa de Mallorca.

El gobierno de Modi ha estado enmarcando leyes que se supone protegerán a los indios de los deepfakes y otros tipos de contenido engañoso. La ley “Normas de TI” de 2021 hace que las plataformas en línea, a diferencia de en Estados Unidos, sean responsables de todo tipo de contenido objetable, incluidas las suplantaciones de identidad destinadas a causar insultos. La Fundación Libertad en Internet, un grupo de derechos digitales indio, que ha argumentado que estos poderes son demasiado amplios, está rastreando 17 desafíos legales a la ley.

Pero el propio primer ministro parece receptivo a ciertos tipos de contenido generado por inteligencia artificial. Un par de videos producidos con herramientas de inteligencia artificial muestran a dos de los políticos más importantes de la India, el Sr. Modi y Mamata Banerjee, una de sus oponentes más acérrimas, imitando un video viral de YouTube del rapero estadounidense Lil Yachty haciendo “la salida MÁS DIFÍCIL de TODAS”.

El Sr. Modi compartió el video en X, diciendo que esa creatividad era “un deleite”. Los funcionarios electorales como el Sr. Sen en Karnataka lo llamaron sátira política: “Un Modi estrella de rock está bien y no es una violación. La gente sabe que esto es falso”.

La policía en Bengala Occidental, donde la Sra. Banerjee es la jefa de gobierno, envió avisos a algunas personas por publicar contenido “ofensivo, malicioso y provocador”.

En busca de deepfakes, el Sr. Sen dijo que su equipo en Karnataka, que trabaja para un gobierno estatal controlado por la oposición, revisa diligentemente plataformas de redes sociales como Instagram y X, buscando palabras clave y actualizando repetidamente las cuentas de influencers populares.

LEAR  Maicah Larroza tiene una motivación adicional para el Draft de la PVL.

La Unidad de Análisis de Deepfakes tiene 12 socios de verificación de hechos en los medios, incluidos algunos que están cerca del gobierno nacional de Modi. La Sra. Raina dijo que su unidad trabaja con laboratorios forenses externos, incluido uno en la Universidad de California, Berkeley. Utilizan software de detección de inteligencia artificial como TrueMedia, que escanea archivos multimedia y determina si se les debe confiar.

Algunos ingenieros expertos en tecnología están perfeccionando software forense de inteligencia artificial para identificar qué parte de un video fue manipulada, hasta el último píxel.

Pratik Sinha, fundador de Alt News, el sitio de verificación de hechos independiente más venerado de la India, dijo que las posibilidades de los deepfakes aún no se han aprovechado por completo. Algún día, dijo, los videos podrían mostrar a los políticos no solo diciendo cosas que no dijeron, sino también haciendo cosas que no hicieron.

El Dr. Hany Farid ha estado enseñando forense digital en Berkeley durante 25 años y colabora con la Unidad de Análisis de Deepfakes en algunos casos. Dijo que mientras “estamos atrapando los malos deepfakes”, si entraran al campo deepfakes más sofisticados podrían pasar desapercibidos.

En India, como en otros lugares, la carrera armamentista está en marcha, entre deepfakers y verificadores de hechos, luchando desde todos los frentes. El Dr. Farid describió esto como “el primer año en el que realmente hemos empezado a ver el impacto de la inteligencia artificial de maneras interesantes y más nefastas”.