Changpeng Zhao, el fundador de Binance, ha alertado a la comunidad cripto sobre la creciente amenaza de los videos deepfake generados por IA. Zhao advirtió que circulan videos falsos en las redes sociales, que lo representan engañosamente apoyando ciertos tokens.
Advertencia Contra Videos Deepfake
En una publicación en la plataforma X, Zhao enfatizó que estos videos son engañosos, ya que lo presentan hablando sobre criptomonedas en las que nunca ha invertido. Instó a los usuarios a mantenerse vigilantes contra este tipo de contenido engañoso.
“Hay videos deepfake de mí en otras plataformas de redes sociales. ¡Por favor, tengan cuidado!” – Changpeng ‘CZ’ Zhao
Estos videos generados por IA son el resultado de algoritmos de aprendizaje profundo que producen contenido engañoso. La advertencia de Zhao sirve como una alerta crucial contra la creciente prevalencia del fraude asistido por IA dentro del mundo cripto.
Incidentes de Ataques Deepfake
Los videos deepfake impulsados por IA se están volviendo comunes no solo en el sector cripto, sino también entre celebridades. Casos de videos falsos con Taylor Swift y Donald Trump han planteado preocupaciones significativas de seguridad.
El CEO de Ripple, Brad Garlinghouse, ha señalado de manera similar el aumento de las estafas deepfake, afirmando que videos falsos lo han representado promoviendo productos falsificados. En respuesta a estas amenazas, Binance está aconsejando a sus seguidores que eviten cuentas fraudulentas, mientras que se espera que Zhao participe en un evento cripto en Dubái el 30-31 de octubre después de una larga pausa.
A medida que las tecnologías de IA avanzan rápidamente, las medidas de seguridad digital también deben adaptarse para mantenerse al día. La capacidad de internet para la rápida difusión de desinformación plantea desafíos adicionales, particularmente con el caos que los videos deepfake podrían exacerbar.
En este contexto, Binance y otras plataformas juegan un papel líder en informar rápidamente a los usuarios y garantizar su seguridad. Crear listas de advertencia regulares sobre este tipo de videos podría ser particularmente beneficioso.