Así se detecta rápidamente una estafa de criptomonedas deepfake – ejecutivos de ciberseguridad

0
166
 Image Caption  _  Image Name  | Vimilin
-Advertisement-

Se ha instado a los criptoinversores a mantener los ojos bien abiertos ante las estafas de criptomonedas “deepfake” que se avecinan, ya que la tecnología de imitación digital sigue avanzando, haciendo más difícil para los espectadores separar la realidad de la ficción.

David Schwed, director de operaciones de la empresa de seguridad blockchain Halborn, dijo a Cointelegraph que la industria de las criptomonedas es más “susceptible” a las deepfakes que nunca porque “el tiempo es esencial en la toma de decisiones”, lo que se traduce en menos tiempo para verificar la veracidad de un vídeo.

 Image Caption  _  Image Name  | Vimilin
¡Emite tu voto ahora!

Según Vlad Estoup, redactor técnico de OpenZeppelin, los deepfakes utilizan inteligencia artificial (IA) de aprendizaje profundo para crear contenidos digitales de gran realismo mediante la manipulación y alteración de los medios originales, como el intercambio de caras en vídeos, fotos y audio.

Estoup señaló que los estafadores de criptomonedas a menudo utilizan la tecnología deepfake para crear vídeos falsos de personalidades conocidas para ejecutar estafas.

Un ejemplo de este tipo de estafa fue un vídeo deepfake del ex CEO de FTX en noviembre, en el que los estafadores utilizaron viejas imágenes de entrevista de Sam Bankman-Fried y un emulador de voz para dirigir a los usuarios a un sitio web malicioso que prometía “duplicar tu criptomoneda.”

Schwed dijo que la naturaleza volátil de las criptomonedas hace que la gente entre en pánico y adopte un enfoque de “más vale prevenir que curar”, lo que puede llevarlos a caer en estafas de deepfake. Señaló:

“Si se difunde un vídeo de CZ en el que se afirma que las retiradas se detendrán en una hora, ¿vas a retirar inmediatamente tus fondos o vas a pasar horas intentando averiguar si el mensaje es real?”.

Sin embargo, Estoup cree que aunque la tecnología deepfake avanza a gran velocidad, todavía no es “indistinguible de la realidad”.

Cómo detectar un deepfake: Fíjate en los ojos

Schwed sugiere que una forma útil de detectar rápidamente una deepfake es observar cuando el sujeto parpadea. Si no parece natural, es muy probable que se trate de una deepfake.

Esto se debe al hecho de que los deepfakes se generan a partir de archivos de imagen procedentes de Internet, donde el sujeto suele tener los ojos abiertos, explica Schwed. Por tanto, en un deepfake es necesario simular el parpadeo de los ojos del sujeto.

Schwed dijo que el mejor identificador por supuesto es hacer preguntas que sólo el individuo real puede responder, como “¿en qué restaurante quedamos para comer la semana pasada?”

Estoup dijo que también hay software de IA disponible que puede detectar deepfakes y sugiere que uno debe estar atento a las grandes mejoras tecnológicas en esta área.

También dio un viejo consejo: “Si es demasiado bueno para ser verdad, probablemente lo sea”.

Relacionado: ‘¡Caramba! Elon Musk advierte a los usuarios contra la última estafa de criptomonedas deepfake

El año pasado, el jefe de comunicaciones de Binance, Patrick Hillman, reveló en un comunicado de agosto blog post que se perpetró una sofisticada estafa utilizando un deepfake suyo.

Hillman señaló que el equipo utilizó entrevistas de noticias anteriores y apariciones en televisión a lo largo de los años para crear el deepfake y “engañar a varios miembros cripto altamente inteligentes.”

Sólo se dio cuenta de esto cuando comenzó a recibir mensajes en línea agradeciéndole su tiempo hablando con equipos de proyectos sobre la posibilidad de listar sus activos en Binance.com.

A principios de esta semana, la firma de seguridad de blockchain SlowMist señaló que hubo 303 incidentes de seguridad de blockchain en 2022, de los cuales el 31,6% fueron causados por phishing, tirones de alfombra y otras estafas.



Source: COIN TELEGRAPH

Reciba noticias de Vimilin desde Google news
-Advertisement-

LEAVE A REPLY

Please enter your comment!
Please enter your name here