Indietro

Gli utenti dei CEX devono preoccuparsi dei progressi dei deepfake?

editor avatar

Modificato da
Mohammad Shahid

14 gennaio 2026 22:46 CET
  • I deepfake generati dall’IA si stanno diffondendo rapidamente, spingendo verso una regolamentazione globale e sollevando nuove preoccupazioni riguardo la fiducia digitale.
  • I video sintetici in tempo reale mettono alla prova i controlli di selfie e vivacità utilizzati nei sistemi KYC dei CEX centralizzati.
  • Senza solidi sistemi di tutela, l’onboarding automatizzato potrebbe esporre gli exchange centralizzati a un aumento di frodi e abusi d’identità.
Promo

L’uso sempre più diffuso di strumenti basati sull’intelligenza artificiale per generare contenuti deepfake ha riacceso le preoccupazioni sulla sicurezza pubblica.

Man mano che la tecnologia diventa più avanzata e ampiamente accessibile, solleva anche interrogativi sull’affidabilità dei sistemi di verifica dell’identità visiva utilizzati dagli exchange centralizzati.

Sponsored
Sponsored

I governi si muovono per limitare i deepfake

I video ingannevoli si stanno diffondendo rapidamente sulle piattaforme social, alimentando ulteriormente i timori per una nuova ondata di disinformazione e contenuti falsificati. Il crescente abuso di questa tecnologia mina sempre di più la sicurezza pubblica e l’integrità personale.

Il problema ha raggiunto nuovi livelli, spingendo i governi di tutto il mondo ad approvare leggi che rendono illegale l’uso dei deepfake.

Questa settimana, la Malesia e l’Indonesia sono diventati i primi Paesi a limitare l’accesso a Grok, il chatbot basato su intelligenza artificiale sviluppato dalla xAI di Elon Musk. Le autorità hanno dichiarato che la decisione è stata presa a seguito di preoccupazioni riguardo all’abuso del sistema per generare immagini sessualmente esplicite e non consensuali.

Sponsored
Sponsored

Il procuratore generale della California, Rob Bonta, ha annunciato una mossa analoga. Mercoledì ha confermato che il suo ufficio sta indagando su molteplici segnalazioni che coinvolgono immagini sessualizzate e non consensuali di persone reali.

“Questo materiale, che raffigura donne e bambini in situazioni di nudo e atti sessualmente espliciti, è stato usato per molestare persone in tutta la rete. Esorto xAI a intervenire immediatamente per evitare che la situazione peggiori ulteriormente,” ha dichiarato Bonta in un comunicato.

A differenza dei primi deepfake, i nuovi strumenti possono rispondere dinamicamente agli input e replicano in modo convincente movimenti facciali naturali e parlato sincronizzato.

Di conseguenza, controlli di base come il battito di ciglia, il sorriso o l’inclinazione della testa potrebbero non essere più sufficienti a confermare in modo affidabile l’identità di un utente.

Questi progressi hanno implicazioni dirette per gli exchange centralizzati che fanno affidamento sulla verifica visiva durante il processo di onboarding.

Gli exchange centralizzati sotto pressione

L’impatto finanziario delle frodi facilitate dai deepfake non è più solo teorico.

Osservatori del settore e ricercatori tecnologici hanno avvertito che immagini e video generati dalle IA compaiono sempre più spesso in contesti come richieste assicurative e dispute legali.

Le piattaforme crypto, che operano a livello globale e spesso si affidano a processi automatizzati di onboarding, potrebbero diventare un bersaglio interessante per queste attività se i sistemi di sicurezza non si evolveranno di pari passo con la tecnologia.

Man mano che i contenuti generati dall’IA diventano più accessibili, la fiducia basata solo sulla verifica visiva potrebbe non essere più sufficiente.

La sfida per le piattaforme crypto sarà adattarsi rapidamente, prima che la tecnologia superi le misure di sicurezza pensate per proteggere utenti e sistemi.

Disclaimer

Tutte le informazioni contenute nel nostro sito web sono pubblicate in buona fede e solo a scopo informativo generale. Qualsiasi azione intrapresa dal lettore in base alle informazioni contenute nel nostro sito web è strettamente a suo rischio e pericolo.

Contenuto sponsorizzato
Contenuto sponsorizzato