Deepfake AI Imita CZ Di Binance In Modo Inquietante
  • Home
  • IA
  • Deepfake AI Imita CZ Di Binance In Modo Inquietante
Da Hamza Ahmed Immagine del profilo Hamza Ahmed
5 min read

Deepfake AI Imita CZ Di Binance In Modo Inquietante

CZ, ex CEO di Binance, non ha riconosciuto un video deepfake con la sua stessa voce. L’intelligenza artificiale replica volti e suoni con pericolosa precisione.

L’ex CEO di Binance, Changpeng “CZ” Zhao, ha raccontato un’esperienza sorprendente con un video che imitava perfettamente la sua voce grazie alla tecnologia AI.

Zhao ha rivelato in un post pubblicato giovedì che il doppiaggio in mandarino presente nel video era indistinguibile dalla sua vera voce, per via dell’estrema precisione della riproduzione.

Il video, in cui Zhao appare mentre parla cinese in un montaggio di clip e immagini create con l’intelligenza artificiale, ha sollevato forti preoccupazioni riguardo all’uso non autorizzato dell’AI per impersonare figure pubbliche. CZ ha definito la precisione della voce e della sincronizzazione labiale come “inquietante”.

0:00
/0:15

La duplicazione digitale di dirigenti del settore crypto tramite strumenti di AI generativa è in crescita, e questo caso rappresenta un chiaro esempio di impersonificazione malevola.
Dopo essersi dimesso da CEO di Binance nel 2023, Zhao ha continuato ad avere un'influenza nel settore delle criptovalute e aveva già in passato avvertito il pubblico riguardo ai rischi dei deepfake.

Nel mese di ottobre 2024, Zhao aveva lanciato un avvertimento specifico: non fidarsi di nessun video che chieda trasferimenti di criptovalute, a causa della diffusione di contenuti manipolati che lo ritraevano.

I Deepfake Rappresentano Rischi Operativi Sempre Più Gravi per il Settore Crypto

L’ultima esperienza di Zhao mostra come i metodi di impersonificazione si stiano evolvendo dai semplici scam testuali o con immagini statiche a sofisticate simulazioni audiovisive.

Patrick Hillmann, ex Chief Communications Officer di Binance, ha raccontato nel 2023 che alcuni truffatori avevano creato un video deepfake per impersonarlo durante un incontro Zoom con rappresentanti di progetti.

Scammers used a deepfake AI hologram of Binance executive to scam crypto projects
Scammers used a deepfake AI hologram of the Binance chief communications officer for fraudulent activities.

Il video era stato generato raccogliendo anni di sue interviste pubbliche e contenuti online, rendendo l'incontro fittizio credibile come una vera chiamata ufficiale da parte di Binance.

Oggi, tecnologie avanzate di clonazione vocale permettono di imitare una persona così bene che nemmeno l’originale riesce a riconoscere la falsificazione. Ciò rappresenta un pericolo ben oltre il furto d’identità sui social.

Una Truffa Da Milioni Di Dollari Mostra i Rischi Concreti dei Deepfake

Un episodio avvenuto a febbraio evidenzia i gravi rischi finanziari legati ai deepfake: alcuni dipendenti di Arup a Hong Kong sono stati truffati e indotti a trasferire circa 25 milioni di dollari durante una videochiamata su Microsoft Teams.

Arup lost $25mn in Hong Kong deepfake video conference scam
UK-based engineering group identified as target of fraud that used digitally cloned CFO to trick staff

Secondo il South China Morning Post, tutti i partecipanti alla chiamata erano simulazioni AI che imitavano voce e aspetto del direttore finanziario del Regno Unito e di altri colleghi.

Clonazione Vocale: Tecnologia Sempre Più Accessibile

La tecnologia dietro la clonazione vocale realistica è sempre più accessibile e richiede pochissimi dati vocali per funzionare.

Servizi come ElevenLabs permettono agli utenti di creare cloni vocali realistici da meno di 60 secondi di registrazione.

Secondo un’istituzione finanziaria britannica, oltre il 25% degli adulti nel Regno Unito ha avuto a che fare con truffe basate su voci clonate solo nell’ultimo anno.

AI-Driven Deepfake Cyberattacks: A Growing Threat for 2025 and Beyond
AI-driven cyberattacks are rising in 2025. Learn how CyFlare protects healthcare and financial industries with advanced solutions.

I rapporti di CyFlare mostrano che nei marketplace del darknet si possono acquistare API per clonazione vocale a partire da 5 dollari. I modelli commerciali di solito includono watermarking e richiedono consenso, mentre quelli open-source o illegali non offrono alcuna protezione.

L’UE Richiede Etichette Esplicite per i Deepfake, Ma la Normativa Arriverà Solo nel 2026

Il Regolamento sull’Intelligenza Artificiale dell’Unione Europea, adottato a marzo 2024, impone che ogni contenuto deepfake visibile pubblicamente sia chiaramente etichettato.
Tuttavia, la piena applicazione della normativa è prevista solo per il 2026, lasciando un periodo di vulnerabilità significativo.

Article 50: Transparency Obligations for Providers and Deployers of Certain AI Systems | EU Artificial Intelligence Act

Nel frattempo, i produttori hardware stanno iniziando a incorporare sistemi di rilevamento nei dispositivi consumer.
Durante il Mobile World Congress 2025 di Barcellona sono stati presentati strumenti capaci di rilevare in tempo reale manipolazioni audio e video integrate nei dispositivi stessi — un possibile passo avanti verso soluzioni autonome di verifica dell’autenticità, anche se ancora lontane dalla distribuzione commerciale.

Da Hamza Ahmed Immagine del profilo Hamza Ahmed
Aggiornato il
IA Crypto Truffe
Consent Preferences