OpenAI dice que grupos rusos e israelíes utilizaron sus herramientas para difundir desinformación.

OpenAI el jueves publicó su primer informe sobre cómo se están utilizando sus herramientas de inteligencia artificial para operaciones de influencia encubierta, revelando que la compañía había interrumpido campañas de desinformación originadas en Rusia, China, Israel e Irán.

Actores maliciosos utilizaron los modelos de inteligencia artificial generativa de la compañía para crear y publicar contenido de propaganda en plataformas de redes sociales, y para traducir su contenido a diferentes idiomas. Ninguna de las campañas ganó tracción ni alcanzó a grandes audiencias, según el informe.

En Rusia, dos operaciones crearon y difundieron contenido criticando a los Estados Unidos, Ucrania y varias naciones bálticas. Una de las operaciones utilizó un modelo de OpenAI para depurar código y crear un bot que publicaba en Telegram. La operación de influencia de China generó texto en inglés, chino, japonés y coreano, que los operativos luego publicaron en Twitter y Medium.

Los actores iraníes generaron artículos completos que atacaban a los Estados Unidos e Israel, los cuales tradujeron al inglés y al francés. Una firma política israelí llamada Stoic dirigió una red de cuentas falsas en redes sociales que crearon una variedad de contenido, incluidas publicaciones que acusaban a las protestas estudiantiles estadounidenses contra la guerra de Israel en Gaza de ser antisemitas.

Varios de los difusores de desinformación que OpenAI prohibió en su plataforma ya eran conocidos por investigadores y autoridades. El Tesoro de los Estados Unidos sancionó a dos hombres rusos en marzo que presuntamente estaban detrás de una de las campañas que detectó OpenAI, mientras que Meta también prohibió a Stoic de su plataforma este año por violar sus políticas.

El informe también destaca cómo la inteligencia artificial generativa se está incorporando en campañas de desinformación como un medio para mejorar ciertos aspectos de la generación de contenido, como hacer publicaciones más convincentes en idiomas extranjeros, pero que no es la única herramienta para la propaganda.

LEAR  Chris Paul aporta liderazgo para Wembanyama, jóvenes Spurs

“A lo largo del último año, actores maliciosos han utilizado inteligencia artificial generativa en países de todo el mundo para intentar influir en la política y la opinión pública. Audios deepfake, imágenes generadas por IA y campañas basadas en texto han sido empleadas para interrumpir campañas electorales, lo que ha llevado a una mayor presión sobre compañías como OpenAI para restringir el uso de sus herramientas.

OpenAI declaró que planea publicar periódicamente informes similares sobre operaciones de influencia encubierta, así como eliminar cuentas que violen sus políticas.