Rostros GAN: ¿Çómo pueden ser utilizados para el fraude?

Conoce qué son los rostros GAN y cómo esta tecnología basada en Inteligencia Artificial puede ser aprovechada por los cibercriminales para engañar a las personas.

 

Luego de analizar el potencial uso de tecnologías como ChatGPT por cibercriminales, continuamos la revisión de algunas de las diversas tecnologías que se desprenden de la IA, o más específicamente del Machine Learning, para ver qué son los rostros GAN y las posibilidades que ofrecen para fines maliciosos. Pero antes de avanzar con la explicación de qué son los rostros GAN dejamos planteada la siguiente pregunta: ¿cuál de los siguientes rostros pertenece a una persona real?

Rostro gan ficticio ejemplo

Fig. 1 – ¿Cuál es la imagen real? – ¿Opción A (izquierda) u opción B (derecha)?

Recuerda cuál elegiste, ya que al final del artículo te contamos cuál es la correcta.

¿Qué son los rostros GAN?

Primero debemos entender que la tecnología GAN es el tipo de Inteligencia Artificial que permite crear rostros ficticios. Las redes GAN, del inglés Generative Adversarial Network, cuya traducción puede encontrarse como redes generativas adversarias o antagónicas, son algoritmos que se basan en el Deep Learning. A través de esta tecnología se pueden generar rostros realistas y otro tipo de imágenes, hasta audio o videos.

¿Cómo funcionan las redes GAN?

Esta tecnología fue creada en el año 2014 por Ian Goodfellow y su equipo de colegas. De manera muy general podemos decir que las GAN funcionan en base al entrenamiento de imágenes. Es decir que se necesita ingresar datos de entrada, como pueden ser rostros reales de diferentes personas, y el modelo ofrece como resultado  nuevos rostros con nuevas características de apariencia real.

Si bien los rostros GAN son de gran ayuda para industrias como la de los videojuegos para la generación de rostros para los personajes, o para efectos visuales que luego son utilizados en películas, lamentablemente también pueden ser utilizados con fines malintencionados. De hecho, estudios publicados ya daban cuenta a fines de 2021 que las imágenes creadas mediante Inteligencia Artificial son cada vez más convincentes y que existe un 50% de posibilidades de confundir un rostro falso con uno real.

Por todo esto, a continuación compartimos algunos ejemplos de cómo pueden ser utilizados por actores maliciosos:

Para crear perfiles falsos

Si hay algo que los cibercriminales saben hacer es utilizar las nuevas tecnologías para poder desplegar estafas cada vez más persuasivas. Con las redes GAN los cibercriminales pueden crear imágenes o hasta incluso videos de personas conocidas, o no, para engañar a las víctimas y persuadirlas para que revelen información confidencial, como nombres de usuario y contraseñas, o hasta incluso los números de tarjetas de crédito. Por ejemplo, pueden crear rostros de personas ficticias que luego son utilizados para armar perfiles de supuestos representantes de servicio al cliente de una empresa. Estos perfiles luego envían correos electrónicos de phishing a los clientes de esa empresa para engañarlos y hacer que revelen información personal.

Si se utilizan con otras tecnologías, como ChatGPT por ejemplo, que como vimos puede ser utilizada para redactar correos de phishing muy persuasivos, no sería descabellado pensar que la efectividad de los fraudes pueda aumentar.

Para crear fake news

El crecimiento de las fake news ha vuelto desafiante la tarea de discernir entre la información real y la falsa. Con el avance de las tecnologías de machine learning el desafío parece ir creciendo. Como vimos con ChatGPT y la posibilidad de crear una noticia falsa, si acompañamos esta noticia con videos o imágenes que se hacen pasar por personas reales, el potencial es enorme. Ya hemos visto casos en los que se han creado deepfakes haciéndose pasar por políticos para distribuir fake news, como fue el caso del presidente de Ucrania, Volodymyr Zelensky, y un video falso que fue subido a sitios web comprometidos de este país en el que llamaba a los soldados ucranianos a bajar las armas.

 

Robo de identidad

Relacionado a los puntos anteriores, la creación de rostros similares a los de personas públicas, como pueden ser celebridades, pueden facilitar los fraudes de robo o suplantación de identidad. Pensemos en el reconocimiento facial como método de autenticación y las posibilidades que ofrecen los rostros GAN como instrumento para sortear este método de autenticación y acceder a la cuenta de un tercero. Vale la pena mencionar también que si bien muchos métodos de reconocimiento facial no funcionan bien cuando las imágenes son de baja resolución, estudios han demostrado que la tecnología GAN ha demostrado ser efectiva para mejorar la precisión de las tecnologías de reconocimiento facial ante estos escenarios. Por otra parte, también es importante mencionar que las empresas están al tanto de los riesgos y están desarrollando funcionalidades para detectar estas imágenes falsas. LinkedIn, por ejemplo, anunció en 2022 nuevas funcionalidades que utilizan Inteligencia Artificial (IA) para identificar perfiles que utilizan generadores de imágenes sintéticas mediante IA.

Fraude en las aplicaciones de citas y redes sociales

Ya hemos mencionado los riesgos de seguridad y engaños que circulan entorno a los sitios y apps de citas online, pero el avance de tecnologías basadas en redes neuronales, como son las redes GAN, ya no solo debemos preocuparnos por configurar correctamente la privacidad de estas aplicaciones y servicios para proteger nuestros datos. Con la ayuda de la redes GAN los cibercriminales pueden crear rostros falsos que son utilizados para crear perfiles falsos en aplicaciones de citas y/o perfiles de redes sociales como parte de su estrategia para engañar y luego extorsionar a las víctimas. Compañías como Meta revelaron el aumento de perfiles falsos en los que se utilizaban imágenes artificiales creadas por una computadora.

Consejos

Algunos consejos para evitar las estafas frente a la generación de imágenes y videos GAN son:

  • Verificar la fuente: Asegurarse de que la fuente de la imagen es confiable y verificar la veracidad de dicha imagen.
  • “No todo lo que brilla es oro”: desconfiar de las imágenes que parecen demasiado perfectas. Mayormente las imágenes generadas por este tipo de tecnología tienen un aspecto perfecto y sin defectos, por lo que es importante desconfiar de ellas. Si una imagen o video parece sospechoso, buscar más información al respecto en otras fuentes confiables.
  • Verifica las imágenes y/o videos: Existen algunas  herramientas como Google Reverse Image Search en línea que pueden ayudar a verificar la autenticidad de imágenes y videos.
  • Actualiza tus sistemas de seguridad: mantén tus sistemas de seguridad al día para protegerte contra las estafas y el malware.
  • Instala un software antivirus de buena reputación: no solo te ayudará a detectar código malicioso, sino a detectar sitios falsos o sospechosos.
  • No compartas información confidencial: no compartas información personal o financiera con nadie que no conozcas.

Si bien hoy estamos hablando sobre las redes GAN, los grandes avances que se están dando dentro del campo de la IA es grande, por eso recordamos que como usuarios y usuarias debemos tratar de estar informados sobre las últimas técnicas utilizadas por los ciberdelincuentes para aprender cómo protegernos de las distintas amenazas en línea.

Por último, ¿recuerdas cuál era la imagen que elegiste al principio? La imagen falsa es la A: ¿Qué te pareció el desafío? Cuéntanos en los comentarios si lograste detectar cuál era real.

 

 

Referencias: ESET

Autor: Sol González

 

Chatea con nosotros
Escanea el código