
Deepfake AI Imita CZ Di Binance In Modo Inquietante
CZ, ex CEO di Binance, non ha riconosciuto un video deepfake con la sua stessa voce. L’intelligenza artificiale replica volti e suoni con pericolosa precisione.
CZ, ex CEO di Binance, non ha riconosciuto un video deepfake con la sua stessa voce. L’intelligenza artificiale replica volti e suoni con pericolosa precisione.
Ricevi le ultime notizie, impara dagli esperti, scopri nuovi strumenti e trova ispirazione direttamente nella tua casella di posta.
Niente spam. Disdici l'iscrizione in qualsiasi momento.
L’ex CEO di Binance, Changpeng “CZ” Zhao, ha raccontato un’esperienza sorprendente con un video che imitava perfettamente la sua voce grazie alla tecnologia AI.
Zhao ha rivelato in un post pubblicato giovedì che il doppiaggio in mandarino presente nel video era indistinguibile dalla sua vera voce, per via dell’estrema precisione della riproduzione.
Il video, in cui Zhao appare mentre parla cinese in un montaggio di clip e immagini create con l’intelligenza artificiale, ha sollevato forti preoccupazioni riguardo all’uso non autorizzato dell’AI per impersonare figure pubbliche. CZ ha definito la precisione della voce e della sincronizzazione labiale come “inquietante”.
La duplicazione digitale di dirigenti del settore crypto tramite strumenti di AI generativa è in crescita, e questo caso rappresenta un chiaro esempio di impersonificazione malevola.
Dopo essersi dimesso da CEO di Binance nel 2023, Zhao ha continuato ad avere un'influenza nel settore delle criptovalute e aveva già in passato avvertito il pubblico riguardo ai rischi dei deepfake.
Nel mese di ottobre 2024, Zhao aveva lanciato un avvertimento specifico: non fidarsi di nessun video che chieda trasferimenti di criptovalute, a causa della diffusione di contenuti manipolati che lo ritraevano.
I Deepfake Rappresentano Rischi Operativi Sempre Più Gravi per il Settore Crypto
L’ultima esperienza di Zhao mostra come i metodi di impersonificazione si stiano evolvendo dai semplici scam testuali o con immagini statiche a sofisticate simulazioni audiovisive.
Patrick Hillmann, ex Chief Communications Officer di Binance, ha raccontato nel 2023 che alcuni truffatori avevano creato un video deepfake per impersonarlo durante un incontro Zoom con rappresentanti di progetti.
Il video era stato generato raccogliendo anni di sue interviste pubbliche e contenuti online, rendendo l'incontro fittizio credibile come una vera chiamata ufficiale da parte di Binance.
Oggi, tecnologie avanzate di clonazione vocale permettono di imitare una persona così bene che nemmeno l’originale riesce a riconoscere la falsificazione. Ciò rappresenta un pericolo ben oltre il furto d’identità sui social.
Una Truffa Da Milioni Di Dollari Mostra i Rischi Concreti dei Deepfake
Un episodio avvenuto a febbraio evidenzia i gravi rischi finanziari legati ai deepfake: alcuni dipendenti di Arup a Hong Kong sono stati truffati e indotti a trasferire circa 25 milioni di dollari durante una videochiamata su Microsoft Teams.
Secondo il South China Morning Post, tutti i partecipanti alla chiamata erano simulazioni AI che imitavano voce e aspetto del direttore finanziario del Regno Unito e di altri colleghi.
Clonazione Vocale: Tecnologia Sempre Più Accessibile
La tecnologia dietro la clonazione vocale realistica è sempre più accessibile e richiede pochissimi dati vocali per funzionare.
Servizi come ElevenLabs permettono agli utenti di creare cloni vocali realistici da meno di 60 secondi di registrazione.
Secondo un’istituzione finanziaria britannica, oltre il 25% degli adulti nel Regno Unito ha avuto a che fare con truffe basate su voci clonate solo nell’ultimo anno.
I rapporti di CyFlare mostrano che nei marketplace del darknet si possono acquistare API per clonazione vocale a partire da 5 dollari. I modelli commerciali di solito includono watermarking e richiedono consenso, mentre quelli open-source o illegali non offrono alcuna protezione.
L’UE Richiede Etichette Esplicite per i Deepfake, Ma la Normativa Arriverà Solo nel 2026
Il Regolamento sull’Intelligenza Artificiale dell’Unione Europea, adottato a marzo 2024, impone che ogni contenuto deepfake visibile pubblicamente sia chiaramente etichettato.
Tuttavia, la piena applicazione della normativa è prevista solo per il 2026, lasciando un periodo di vulnerabilità significativo.
Nel frattempo, i produttori hardware stanno iniziando a incorporare sistemi di rilevamento nei dispositivi consumer.
Durante il Mobile World Congress 2025 di Barcellona sono stati presentati strumenti capaci di rilevare in tempo reale manipolazioni audio e video integrate nei dispositivi stessi — un possibile passo avanti verso soluzioni autonome di verifica dell’autenticità, anche se ancora lontane dalla distribuzione commerciale.
Sign up for Spaziocrypto®
No spam. Unsubscribe anytime.
Leggi il prossimo
Dati Utenti Crypto Venduti Nel Dark Web: Rischio Alto
Dati sensibili degli utenti di Ledger, Gemini e Robinhood messi in vendita sul dark web. Crescono i timori sulla sicurezza crypto.
Nuova Tendenza: GHIBLI Token Listato su Vari Exchange
Il token GHIBLI, ispirato allo Studio Ghibli, sta guadagnando popolarità con listing su Gate.io, BingX e altre piattaforme. Crescita del 20% in 24h.
Chatbot Grok Lancia Token con Bankr e Raccoglie $270K
Chatbot Grok lancia il suo token tramite Bankr, raccogliendo $270K. Un passo importante nell'integrazione tra AI e blockchain.
DeepSeek Crypto Scam: La Cina Lancia L'Allerta
Le autorità cinesi avvertono di un gruppo criminale che sfrutta il nome DeepSeek per truffare investitori con false piattaforme e app infette.