Indietro

Perché gli exploit crypto guidati dall’intelligenza artificiale sono più pericolosi che mai prima d’ora

author avatar

Scritto da
Camila Naón

editor avatar

Modificato da
Mohammad Shahid

02 dicembre 2025 20:06 CET
Affidabile
  • Uno studio di Anthropic rivela che i modelli di intelligenza artificiale stanno sfruttando le falle degli smart contract, generando $4.600.000 in furti simulati.
  • Nuove vulnerabilità scoperte dagli agenti AI, che mostrano la crescente minaccia degli attacchi informatici guidati dall'AI.
  • I profitti degli exploit raddoppiano ogni 1,3 mesi, poiché l'IA prende autonomamente di mira le debolezze nei contratti blockchain.
Promo

I ricercatori di Anthropic hanno scoperto che tre popolari agenti AI possono autonomamente sfruttare vulnerabilità negli smart contract, generando circa $4,6 milioni in fondi simulati rubati.

Hanno anche scoperto nuove vulnerabilità in contratti blockchain lanciati di recente, mostrando che gli attacchi informatici guidati dall’AI sono ora possibili e redditizi.

Sponsored
Sponsored

Gli attacchi informatici guidati dall’AI si dimostrano convenienti

In un post sul blog pubblicato lunedì, Anthropic ha rivelato scoperte preoccupanti sull’aumentata abilità dell’intelligenza artificiale (AI) di mirare a debolezze negli smart contract.

La loro ricerca ha rivelato che tre modelli AI—Claude Opus 4.5, Sonnet 4.5, e GPT-5—erano in grado di identificare e sfruttare debolezze nei contratti blockchain. Questo ha portato a $4,6 milioni in fondi simulati rubati da contratti lanciati dopo marzo 2025.

Entrate totali generate da exploit simulati. Fonte: Anthropic.
Sponsored
Sponsored

I modelli AI hanno anche scoperto due nuove vulnerabilità in contratti lanciati di recente.

Un difetto permetteva agli aggressori di manipolare una funzione pubblica di “calcolatrice”, destinata a determinare i premi in token, per gonfiare i saldi dei token. Un altro permetteva agli aggressori di ritirare fondi inviando indirizzi di beneficiari falsi.

GPT-5 è stato in grado di identificare e sfruttare questi problemi con un costo di soli $3.476. Questo numero rappresenta il costo di esecuzione del modello AI per eseguire l’attacco in un ambiente simulato.

Dato che questi exploit hanno portato a $4,6 milioni in fondi rubati, la bassa spesa necessaria per eseguirli dimostra che gli attacchi informatici guidati dall’AI non solo sono possibili, ma anche convenienti, rendendoli redditizi e attraenti per potenziali criminali informatici.

Le entrate generate da questi exploit guidati dall’AI stanno anche aumentando a un ritmo allarmante.

Aumento Esponenziale dei Profitti da Exploit

Nell’ultimo anno, la somma rubata da questi attacchi è raddoppiata approssimativamente ogni 1,3 mesi.

Questo rapido aumento mostra quanto velocemente gli exploit guidati dall’AI stiano diventando più redditizi e diffusi. I modelli stanno migliorando la loro capacità di trovare vulnerabilità ed eseguire attacchi con maggiore efficienza.

Man mano che i fondi rubati aumentano, diventa sempre più difficile per le organizzazioni stare al passo. Ciò che è particolarmente preoccupante è che l’AI può ora eseguire autonomamente questi attacchi senza intervento umano.

Le scoperte di Anthropic rappresentano un cambiamento significativo nella sicurezza informatica. L’AI non solo identifica le vulnerabilità ma crea e esegue autonomamente strategie di exploit con minima supervisione.

Le implicazioni vanno ben oltre le criptovalute. Qualsiasi sistema software con una sicurezza debole è vulnerabile, dalle applicazioni aziendali ai servizi finanziari e oltre.

Disclaimer

Tutte le informazioni contenute nel nostro sito web sono pubblicate in buona fede e solo a scopo informativo generale. Qualsiasi azione intrapresa dal lettore in base alle informazioni contenute nel nostro sito web è strettamente a suo rischio e pericolo.

Contenuto sponsorizzato
Contenuto sponsorizzato