Deepfake AI Imita CZ Di Binance In Modo Inquietante
CZ, ex CEO di Binance, non ha riconosciuto un video deepfake con la sua stessa voce. L’intelligenza artificiale replica volti e suoni con pericolosa precisione.
CZ, ex CEO di Binance, non ha riconosciuto un video deepfake con la sua stessa voce. L’intelligenza artificiale replica volti e suoni con pericolosa precisione.

Ricevi le ultime notizie, impara dagli esperti, scopri nuovi strumenti e trova ispirazione direttamente nella tua casella di posta.
Niente spam. Disdici l'iscrizione in qualsiasi momento.
Documentario su Bitcoin, blockchain e geopolitica globale.
L’ex CEO di Binance, Changpeng “CZ” Zhao, ha raccontato un’esperienza sorprendente con un video che imitava perfettamente la sua voce grazie alla tecnologia AI.
Zhao ha rivelato in un post pubblicato giovedì che il doppiaggio in mandarino presente nel video era indistinguibile dalla sua vera voce, per via dell’estrema precisione della riproduzione.
Il video, in cui Zhao appare mentre parla cinese in un montaggio di clip e immagini create con l’intelligenza artificiale, ha sollevato forti preoccupazioni riguardo all’uso non autorizzato dell’AI per impersonare figure pubbliche. CZ ha definito la precisione della voce e della sincronizzazione labiale come “inquietante”.
La duplicazione digitale di dirigenti del settore crypto tramite strumenti di AI generativa è in crescita, e questo caso rappresenta un chiaro esempio di impersonificazione malevola.
Dopo essersi dimesso da CEO di Binance nel 2023, Zhao ha continuato ad avere un'influenza nel settore delle criptovalute e aveva già in passato avvertito il pubblico riguardo ai rischi dei deepfake.
Nel mese di ottobre 2024, Zhao aveva lanciato un avvertimento specifico: non fidarsi di nessun video che chieda trasferimenti di criptovalute, a causa della diffusione di contenuti manipolati che lo ritraevano.
I Deepfake Rappresentano Rischi Operativi Sempre Più Gravi per il Settore Crypto
L’ultima esperienza di Zhao mostra come i metodi di impersonificazione si stiano evolvendo dai semplici scam testuali o con immagini statiche a sofisticate simulazioni audiovisive.
Patrick Hillmann, ex Chief Communications Officer di Binance, ha raccontato nel 2023 che alcuni truffatori avevano creato un video deepfake per impersonarlo durante un incontro Zoom con rappresentanti di progetti.
Il video era stato generato raccogliendo anni di sue interviste pubbliche e contenuti online, rendendo l'incontro fittizio credibile come una vera chiamata ufficiale da parte di Binance.
Oggi, tecnologie avanzate di clonazione vocale permettono di imitare una persona così bene che nemmeno l’originale riesce a riconoscere la falsificazione. Ciò rappresenta un pericolo ben oltre il furto d’identità sui social.
Una Truffa Da Milioni Di Dollari Mostra i Rischi Concreti dei Deepfake
Un episodio avvenuto a febbraio evidenzia i gravi rischi finanziari legati ai deepfake: alcuni dipendenti di Arup a Hong Kong sono stati truffati e indotti a trasferire circa 25 milioni di dollari durante una videochiamata su Microsoft Teams.
Secondo il South China Morning Post, tutti i partecipanti alla chiamata erano simulazioni AI che imitavano voce e aspetto del direttore finanziario del Regno Unito e di altri colleghi.
Clonazione Vocale: Tecnologia Sempre Più Accessibile
La tecnologia dietro la clonazione vocale realistica è sempre più accessibile e richiede pochissimi dati vocali per funzionare.
Servizi come ElevenLabs permettono agli utenti di creare cloni vocali realistici da meno di 60 secondi di registrazione.
Secondo un’istituzione finanziaria britannica, oltre il 25% degli adulti nel Regno Unito ha avuto a che fare con truffe basate su voci clonate solo nell’ultimo anno.
I rapporti di CyFlare mostrano che nei marketplace del darknet si possono acquistare API per clonazione vocale a partire da 5 dollari. I modelli commerciali di solito includono watermarking e richiedono consenso, mentre quelli open-source o illegali non offrono alcuna protezione.
L’UE Richiede Etichette Esplicite per i Deepfake, Ma la Normativa Arriverà Solo nel 2026
Il Regolamento sull’Intelligenza Artificiale dell’Unione Europea, adottato a marzo 2024, impone che ogni contenuto deepfake visibile pubblicamente sia chiaramente etichettato.
Tuttavia, la piena applicazione della normativa è prevista solo per il 2026, lasciando un periodo di vulnerabilità significativo.
Nel frattempo, i produttori hardware stanno iniziando a incorporare sistemi di rilevamento nei dispositivi consumer.
Durante il Mobile World Congress 2025 di Barcellona sono stati presentati strumenti capaci di rilevare in tempo reale manipolazioni audio e video integrate nei dispositivi stessi — un possibile passo avanti verso soluzioni autonome di verifica dell’autenticità, anche se ancora lontane dalla distribuzione commerciale.
Sign up for Spaziocrypto®
No spam. Unsubscribe anytime.
Leggi il prossimo
Google finanzia i miner Bitcoin nella corsa all’AI
Google sta guidando la trasformazione dei miner di Bitcoin in infrastrutture per l’intelligenza artificiale, garantendo miliardi di dollari a colossi come TeraWulf, Cipher Mining e Hut 8.
Hut 8 firma maxi accordo AI da 7 miliardi
Hut 8 annuncia un accordo record per data center AI con Fluidstack. Il mercato reagisce con un rally immediato del titolo, sostenuto dal coinvolgimento strategico di Google.
Balena perde 20 milioni su Base puntando sugli AI token
Una balena crypto brucia oltre 20 milioni di dollari su Base dopo aver puntato tutto sui token AI agent, tra hype, scarsa liquidità e gestione del rischio fallimentare.
Wall Street tra AI e Santa Claus Rally: rischio o occasione
Wall Street è divisa tra il rally stagionale di fine anno e i dubbi sulla sostenibilità degli investimenti in Intelligenza Artificiale, mentre Bitcoin e asset di rischio mostrano segnali di debolezza.