Los selfies deepfake ahora pueden evadir los sistemas de verificación tradicionales
Los estafadores están explotando la IA para la creación de identidades sintéticas
Las organizaciones deben adoptar métodos avanzados de detección basados en el comportamiento
El último Informe Global de Fraude de Identidad de AU10TIX revela una nueva ola de fraude de identidad, en gran medida impulsada por la industrialización de los ataques basados en IA.
Con millones de transacciones analizadas de julio a septiembre de 2024, el informe revela cómo las plataformas digitales en diversos sectores, especialmente en redes sociales, pagos y criptomonedas, están enfrentando desafíos sin precedentes.
Las tácticas de fraude han evolucionado desde simples falsificaciones de documentos hasta identidades sintéticas sofisticadas, imágenes deepfake y bots automatizados que pueden evadir los sistemas de verificación convencionales.
Las plataformas de redes sociales experimentaron una escalada dramática en los ataques de bots automatizados previos a las elecciones presidenciales de EE. UU. de 2024. El informe revela que los ataques en redes sociales representaron el 28% de todos los intentos de fraude en el tercer trimestre de 2024, un aumento notable desde solo el 3% en el primer trimestre.
Estos ataques se centran en la desinformación y la manipulación de la opinión pública a gran escala. AU10TIX dice que estas campañas de desinformación impulsadas por bots emplean elementos avanzados de IA Generativa (GenAI) para evitar la detección, una innovación que ha permitido a los atacantes escalar sus operaciones mientras evaden los sistemas de verificación tradicionales.
Los ataques impulsados por GenAI comenzaron a escalar en marzo de 2024 y alcanzaron su punto máximo en septiembre, y se cree que influyen en la percepción pública al difundir narrativas falsas y contenido incendiario.
Uno de los descubrimientos más sorprendentes en el informe involucra la aparición de selfies sintéticos deepfake al 100%: imágenes hiperrealistas creadas para imitar características faciales auténticas con la intención de evadir los sistemas de verificación.
Inscríbase en el boletín informativo de TechRadar Pro para obtener todas las noticias, opiniones, características y orientación que su empresa necesita para tener éxito!
Tradicionalmente, los selfies se consideraban un método confiable para la autenticación biométrica, ya que la tecnología necesaria para falsificar convincentemente una imagen facial estaba fuera del alcance de la mayoría de los estafadores.
AU10TIX destaca que estos selfies sintéticos plantean un desafío único para los procedimientos tradicionales de KYC (Conozca a su cliente). El cambio sugiere que en el futuro, las organizaciones que dependen únicamente de la tecnología de coincidencia facial pueden necesitar reevaluar y reforzar sus métodos de detección.
Además, los estafadores están utilizando cada vez más la IA para generar variaciones de identidades sintéticas con la ayuda de ataques de “plantilla de imagen”. Estos implican la manipulación de una sola plantilla de identificación para crear múltiples identidades únicas, completas con elementos fotográficos aleatorizados, números de documentos y otros identificadores personales, lo que permite a los atacantes crear rápidamente cuentas fraudulentas en diversas plataformas aprovechando la IA para escalar la creación de identidades sintéticas.
En el sector de pagos, la tasa de fraude disminuyó en el tercer trimestre, del 52% en el segundo trimestre al 39%. AU10TIX atribuye este progreso a una mayor supervisión regulatoria y a intervenciones policiales. Sin embargo, a pesar de la reducción en los ataques directos, la industria de pagos sigue siendo el sector más frecuentemente atacado, con muchos estafadores, desalentados por la seguridad reforzada, redirigiendo sus esfuerzos hacia el mercado de criptomonedas, que representó el 31% de todos los ataques en el tercer trimestre.
AU10TIX recomienda que las organizaciones vayan más allá de los métodos de verificación tradicionales basados en documentos. Una recomendación crítica es adoptar sistemas de detección basados en el comportamiento que vayan más allá de las verificaciones de identidad estándar. Al analizar patrones en el comportamiento del usuario, como rutinas de inicio de sesión, fuentes de tráfico y otras señales de comportamiento únicas, las empresas pueden identificar anomalías que indiquen actividad potencialmente fraudulenta.
“Los estafadores están evolucionando más rápido que nunca, aprovechando la IA para escalar y ejecutar sus ataques, especialmente en los sectores de redes sociales y pagos”, dijo Dan Yerushalmi, CEO de AU10TIX. “Mientras las empresas utilizan la IA para reforzar la seguridad, los criminales están utilizando la misma tecnología para crear selfies sintéticos y documentos falsos, lo que hace que la detección sea casi imposible.”