La società di analisi blockchain Elliptic ha recentemente rilasciato un rapporto completo intitolato “The State of AI-Enabled Crypto Crime: Emerging Typologies and Trends to Look Out For”. Il rapporto illumina l’allarmante aumento dell’intelligenza artificiale (AI) per facilitare vari crimini di criptovaluta.
Mentre l’IA ha cambiato le carte in tavola per molti settori, il suo uso improprio in ambito crittografico sta diventando una preoccupazione significativa.
Come l’IA sta trasformando il crimine crittografico: Le intuizioni di Elliptic
Il rapporto di Elliptic identifica cinque tipologie principali di sfruttamento dell’IA nei crimini informatici. La prima e forse la più nota è l’uso di deepfake generati dall’IA. Spesso i truffatori utilizzano immagini o video falsi con personaggi pubblici per creare truffe convincenti.
Ad esempio, i truffatori hanno utilizzato deepfake di personaggi come Elon Musk e l’ex primo ministro di Singapore Lee Hsien Loong per promuovere programmi di investimento fraudolenti. I truffatori distribuiscono questi deepfake su piattaforme di social media come TikTok e X.com, ingannando investitori ignari. Per combattere queste truffe, Elliptic consiglia di cercare specifiche bandiere rosse.
Per saperne di più: Come l’intelligenza artificiale (AI) trasformerà le criptovalute?
“Fortunatamente esistono diversi indicatori di allarme rosso che possono aiutare a evitare di cadere vittime di truffe deepfake. Per verificare l’autenticità del video, si può controllare se i movimenti delle labbra e le voci sono sincronizzati, assicurarsi che le ombre appaiano dove ci si aspetta e controllare che l’attività facciale, come l’ammiccamento, sembri naturale”, ha osservato Elliptic.
Un altro crimine prevalente facilitato dall’IA è la creazione di token truffa. Su molte blockchain è relativamente facile creare un nuovo token, che i truffatori sfruttano per generare clamore e gonfiare artificialmente i prezzi prima di eseguire uno schema di “rug pull” o “pump-and-dump”.
I token con nomi che fanno riferimento all’IA, come “GPT”, sono stati bersagli particolarmente popolari. L’indagine di Elliptic ha rivelato numerose truffe di uscita che coinvolgono tali token, sottolineando la necessità di vigilare sugli investimenti in token.
I criminali informatici hanno anche cooptato modelli linguistici di grandi dimensioni come ChatGPT per favorire le loro attività illecite. Questi strumenti di intelligenza artificiale possono generare nuovo codice o verificare quello esistente, che può essere usato impropriamente per identificare e sfruttare le vulnerabilità.
Sebbene aziende come Microsoft e OpenAI abbiano riportato l’uso malevolo da parte di attori statali della Russia e della Corea del Nord, la tecnologia non ha ancora raggiunto un punto tale da facilitare in modo consistente il successo dei cyberattacchi. Tuttavia, l’emergere di strumenti di IA non etici come HackedGPT e WormGPT sui forum del dark web rappresenta una minaccia significativa, in quanto offre servizi di phishing, creazione di malware e hacking.
L’intersezione tra IA e crittografia: Opportunità e minacce svelate
Un’altra area in cui l’IA sta avendo un impatto è l’automazione della distribuzione delle truffe. Alcune operazioni di truffa prevedono la creazione di falsi investimenti, lanci aerei o siti di regali ampiamente promossi attraverso i social media e le app di messaggistica.
Una volta scoperti, questi siti vengono abbandonati e il processo ricomincia con siti e marketing nuovi. L’intelligenza artificiale viene utilizzata per semplificare questo processo ciclico, rendendolo più efficiente e più difficile da rintracciare.
Il furto d’identità e la creazione di documenti falsi sono da tempo elementi fondamentali del dark web. Ora, alcuni servizi stanno incorporando l’intelligenza artificiale per scalare le loro operazioni. Ad esempio, un servizio di interpretazione dei documenti ha pubblicizzato l’utilizzo dell’IA per produrre documenti d’identità e passaporti falsi di alta qualità.
“Elliptic ha identificato un indirizzo crittografico utilizzato per i pagamenti a questo servizio, che ha ricevuto pagamenti sufficienti per generare poco meno di 5.000 documenti falsi nell’arco di un mese”, ha aggiunto la società.
A gennaio, la Commodity Futures Trading Commission (CFTC) ha lanciato un allarme ai consumatori sulle truffe alimentate dall’intelligenza artificiale. L’agenzia ha avvisato di schemi che promettono enormi rendimenti attraverso algoritmi di arbitraggio di criptovalute e altre tecnologie assistite dall’IA.
La CFTC ha sottolineato che i truffatori spesso fanno false promesse di guadagni rapidi, sfruttando il fascino del pubblico per l’IA. Una truffa notevole ha portato alla perdita di 30.000 Bitcoin (BTC), valutati all’epoca circa 1,7 miliardi di dollari.
Per saperne di più: L’intelligenza artificiale nella finanza: I migliori 8 casi d’uso dell’intelligenza artificiale per il 2024
In effetti, l’intersezione tra IA e criptovalute presenta sia immense opportunità che sfide significative. Se da un lato l’IA può migliorare i titoli e l’efficienza delle criptovalute, dall’altro il suo potenziale uso improprio evidenzia la necessità di una risposta ben pianificata e consapevole. Comprendendo queste nuove tendenze, le parti interessate possono proteggere meglio l’ecosistema crittografico dall’evoluzione delle tattiche criminali.
Dichiarazione di non responsabilità
Tutte le informazioni contenute nel nostro sito web sono pubblicate in buona fede e solo a scopo informativo generale. Qualsiasi azione intrapresa dal lettore in base alle informazioni contenute nel nostro sito web è strettamente a suo rischio e pericolo.