Jefe de seguridad advierte sobre nueva estafa

Jefe de seguridad advierte sobre nueva estafa
  • El jefe de seguridad de Binance analiza un aumento en el uso de deepfakes para tratar de eludir los controles de seguridad (video selfies)
  • Los piratas informáticos buscan imágenes de sus objetivos en línea y luego generan falsificaciones utilizando esas imágenes.
  • Luego, el deepfake se usa para intentar eludir el sistema de verificación que, por ejemplo, le pide al usuario que guiñe un ojo en un video selfie.

Si la inteligencia artificial puede traer muchos beneficios a la humanidad, especialmente en términos de productividad, también puede ser explotada para acciones maliciosas. Y, de hecho, los estafadores ya están explotando deepfakes generados por IA. En un artículo anterior, por ejemplo, mencionamos una estafa que consiste en extraer dinero de las víctimas imitando la voz de un ser querido usando IA. Alternativamente, recientemente el director de seguridad de la criptoplataforma Binance también habló sobre el uso de la tecnología deepfake para eludir los controles de seguridad.

Citado por nuestros colegas de Cointelegraph, Jimmy Su, director de seguridad de Binance, explica que hay un aumento en el uso de deepfakes para eludir los controles de verificación de identidad de los consumidores. Como recordatorio, en algunas plataformas, esta verificación consiste en parte en pedirle al usuario que se tome un video selfie. Y según Su, los actores maliciosos buscan en la web imágenes reales de sus víctimas. Luego, utilizan poderosos generadores de deepfakes para crear videos falsos de la víctima, con el fin de eludir los controles de seguridad.

“Algunos de los controles requieren que el usuario, por ejemplo, parpadee con el ojo izquierdo o mire a la izquierda o a la derecha, mire hacia arriba o hacia abajo. Deepfakes son lo suficientemente avanzados hoy en día para ejecutar estos comandos”, dijo el director de seguridad de Binance. Por el momento, sin embargo, especifica que estos deepfakes aún no pueden engañar a los verificadores humanos. Pero Su todavía confía en que, con el tiempo, la IA mejorará.

Un funcionario de Binance ya ha sido víctima de un deepfake

Los deepfakes no son nada nuevo. Pero cuanto más se desarrolla la IA, más engañosas son las imágenes generadas a través de esta tecnología. Por ejemplo, en 2022, el director de estrategia de Binance, Patrick Hillmann, reveló que los atacantes crearon deepfakes a partir de sus fotos y videos para estafar a los miembros de la criptocomunidad.

Más específicamente, los videos de entrevistas de Patrick Hillmann se usaron para generar una falsificación profunda que luego se usó para intentar estafar a los titulares de proyectos criptográficos. El CSO de Binance descubrió esta estafa cuando comenzó a recibir mensajes de personas que le agradecían por tomarse el tiempo para discutir una posible integración de sus proyectos de criptomonedas en Binance. Sin embargo, Hillmann no había tenido una reunión con estas personas y ni siquiera es el encargado de administrar las listas de la plataforma.

“Resulta que un sofisticado equipo de hackers usó entrevistas y apariciones previas en televisión a lo largo de los años para crear un ‘deepfake’ de mí. Aparte de las 15 libras (6,8 kg, nota del editor) que gané durante la ausencia notoria de COVID, este deepfake se ha pulido lo suficiente como para engañar a varios miembros muy inteligentes de la comunidad criptográfica”.explicó el CSO de la plataforma.

Consulte el artículo original sobre www.presse-citron.net