Indietro

Quando gli agent diventano i principali utenti della DeFi

Sceglici su Google
author avatar

Scritto da
Bradley Peak

editor avatar

Modificato da
Shilpa Lama

02 aprile 2026 09:08 CET

Se gli agenti autonomi diventano gli utenti dominanti della DeFi, le blockchain iniziano a svolgere una funzione diversa. Operano come sistemi di coordinamento e regolamento per il software invece che come spazi guidati da tempistiche umane, sentimenti e speculazione.

Federico Variola, CEO di Phemex, afferma che questo potrebbe migliorare lo sviluppo dell’attività on-chain. Lui spiega:

“Recentemente, gli ecosistemi blockchain hanno incontrato difficoltà perché molti token non sono riusciti a raggiungere la velocità di fuga e gran parte dell’attività si è trasformata in trading PvP, dove gli utenti cercano di estrarre valore gli uni dagli altri.”

Secondo lui, “gli agenti potrebbero comportarsi in modo più cooperativo invece che estrattivo, semplicemente perché tendono ad agire in modo più razionale rispetto ai partecipanti umani.”

Dmitry Lazarichev, co-fondatore di Wirex, si concentra su come questo cambia il comportamento

“Quando gli agenti diventano gli attori principali, la chain inizia a comportarsi meno come un mercato di persone e più come un’infrastruttura di macchine.”

“L’attività diventa continua: gli agenti non aspettano l’apertura del mercato, non si stancano e non scambiano in base all’umore.”

Questa attività aumenta l’efficienza ma introduce nuovi punti critici. Se gli agenti si basano su input simili, Lazarichev afferma:

“Si possono generare comportamenti affollati e bruschi cicli di feedback,” con pressioni crescenti su “blockspace, dinamiche delle fee, MEV e qualità delle garanzie di esecuzione.”

Fernando Lillo Aranda, Marketing Director di Zoomex, sostiene che la transizione sia ancora più profonda. Lui afferma:

“Quando gli agenti AI diventano i partecipanti dominanti in un ecosistema blockchain, si passa da una struttura di mercato guidata dagli utenti a un sistema di coordinamento economico autonomo.”

In questo contesto, le blockchain cominciano a operare come sistemi di esecuzione per strategie native delle macchine.

Pauline Shangett, CSO di ChangeNOW, conferma:

“La rete non serve più gli esseri umani, ospita algoritmi che non possono più essere supervisionati dagli umani in tempo reale.”

In interviste esclusive con questi quattro dirigenti del settore crypto, BeInCrypto ha analizzato come la DeFi cambia man mano che gli agenti AI diventano i suoi principali utenti.

La responsabilità agentica non ha ancora una risposta chiara

Se un agente AI può eseguire transazioni, lanciare smart contract o spostare fondi in modo autonomo, attribuire la responsabilità quando qualcosa va storto diventa più difficile.

Lazarichev afferma che l’autonomia non può essere usata come scusa.

“Il punto chiave è che ‘è stato l’agente’ non può diventare una scappatoia per la responsabilità,” spiega. 

Secondo lui, un agente agisce comunque “sotto l’autorità di qualcuno, con permessi e limiti fissati da una persona o un’organizzazione.” L’attenzione quindi si concentra su “chi lo ha lanciato, chi lo ha configurato, chi ne trae beneficio e chi ha fornito il modello e l’ambiente di esecuzione.”

A suo avviso, la risposta si baserà su standard già noti.

“Se lanci un sistema autonomo che può spostare valore, ci si aspetta che vengano adottate precauzioni di base,” incluse “autorizzazioni, limiti di spesa, simulazione delle transazioni, interruttori di sicurezza e log di audit.”

Shangett sostiene che la dottrina legale attuale si basi ancora su presupposti obsoleti:

“Abbiamo già delle leggi. Hanno solo 30 anni e sono pensate per un mondo nel quale il software non poteva rispondere. I framework che tutti citano (ETHOS, NIST, il nuovo PLD), sono tutte patch su un sistema che non è stato progettato per questo. Serve qualcosa di nuovo. E fingere il contrario è semplicemente irresponsabile.”

Indica poi un problema ancora più profondo. “Il diritto dell’agenzia presuppone che l’agente possa essere citato in giudizio. Il tuo agente AI non può. Non ha un wallet, non ha assicurazione, non ha personalità giuridica.”

L’identità non significa più solo essere umani

Con il proliferare dei sistemi autonomi on-chain, anche l’identità va intesa in modo diverso. Le reti devono determinare di che tipo di attore si tratta e quali sono le azioni che può compiere.

Lazarichev spiega che “DID può essere utile, ma non risolverà in modo netto la distinzione tra ‘umano e bot’.”

Secondo lui, questa distinzione non riflette il reale funzionamento di questi sistemi. “Molti bot saranno partecipanti legittimi,” afferma. “Ciò che conta è riuscire a identificare il tipo di attore e il livello di garanzia che c’è dietro.”

Questo porta verso controlli di accesso più strutturati. “Il modello più realistico è un accesso a più livelli: credenziali diverse per privilegi diversi,” spiega Lazarichev.

Aggiunge che i sistemi di identità dovranno lavorare in sinergia con il monitoraggio comportamentale, specialmente quando gli agenti gestiscono operazioni di maggiore valore.

Lillo Aranda concorda. “In un’economia delle macchine, l’‘utente’ è un agente: quindi la priorità nella progettazione va a affidabilità, determinismo e componibilità invece che a semplicità,” afferma.

Anche Shangett ribadisce questo concetto. “I bot non sono più il problema. Lo sono gli agenti.”

Tutte e tre le opinioni degli esperti indicano un modello in cui l’identità è centrata su ruolo, permessi e responsabilità.

La sicurezza del wallet si interrompe al livello del prompt

Per i wallet autonomi, il rischio di sicurezza principale potrebbe non essere il furto delle chiavi, ma le decisioni manipolate.

Lazarichev afferma che la prompt injection è pericolosa perché “prende di mira il livello decisionale invece della crittografia.” Se un agente riceve input dall’esterno, gli attaccanti potrebbero “indirizzarlo a compiere azioni non previste: cambiare un indirizzo di destinazione, approvare uno smart contract malevolo, ampliare i permessi o aggirare un controllo interno.”

Questo rischio aumenta rapidamente quando il wallet ha ampie autorizzazioni. “Non serve violare la crittografia se puoi manipolare il sistema perché autorizzi l’azione sbagliata,” spiega Lazarichev.

Shangett indica un modello di minaccia più specifico.

“Tutti sono entusiasti di vedere gli agenti AI ottenere wallet. Io invece sono più preoccupata di capire cosa succede quando questi wallet vengono convinti a svuotarsi da soli.”

Cita Owockibot come esempio.

“Owockibot. Febbraio di quest’anno. Un agente AI con un wallet crypto e accesso a internet. Cinque giorni dopo il lancio, ha pubblicato le proprie chiavi private in un repository GitHub. Quando gli è stato chiesto spiegazioni, l’agente ha negato di aver fatto qualcosa di sbagliato. La perdita totale è stata di soli $2.100 perché qualcuno è stato abbastanza astuto da assegnargli un piccolo tesoretto. Ma l’agente non è stato hackerato. È stato convinto a rivelare le chiavi.”

Naturalmente, questo cambia il modello di sicurezza.

“Questa è la nuova superficie di attacco. Gli smart contract sono deterministici: stessi input, stessi output, verificabili e testabili. Le LLM non hanno queste caratteristiche.”

Aggiunge inoltre:

“Se dai a un agente AI un wallet, non stai più solo mettendo in sicurezza il codice, ma devi proteggere una scatola nera manipolabile tramite parole.”

Secondo lei, questo è il motivo per cui la sola custodia delle chiavi non basta.

“La sicurezza delle chiavi private non è mai stata il principale vettore di minaccia per i wallet degli agenti. Puoi inserire le chiavi in una TEE, isolarle dalla memoria, fare tutti gli esercizi crittografici che vuoi, ma l’agente può comunque essere manipolato per scegliere di firmare transazioni malevole perché qualcuno lo convince a farlo.”

Entrambi gli esperti sottolineano che è necessario rivedere la definizione di sicurezza di un wallet. In un’economia agentica, questa riguarda sia la custodia sia ciò che l’agente può interpretare e su cui può agire.

Considerazioni finali

La crescita dell’economia agentica potrebbe influenzare il modo in cui vengono progettate le blockchain, a chi si rivolgono e dove iniziano i rischi.

Se i sistemi autonomi diventeranno attori principali on-chain, le reti dovranno supportare attività costantemente gestite dalle macchine affrontando pressioni molto diverse legate a esecuzione, responsabilità, identità e sicurezza.

Come suggerisce Variola, un mercato guidato da agenti razionali potrebbe essere più cooperativo rispetto agli ambienti estrattivi e dominati dalle emozioni che spesso le crypto hanno prodotto finora.

Lazarichev, Lillo Aranda e Shangett mostrano anche che questo futuro porta con sé domande più complesse. Una volta che gli agenti potranno effettuare transazioni, deployare e reagire senza l’intervento umano a ogni passaggio, sarà più difficile assegnare la responsabilità, definire un’identità e la sicurezza dei wallet dovrà andare oltre la sola protezione delle chiavi fino a comprendere il processo decisionale stesso.

Se gli agenti AI diventeranno i principali attori on-chain, il Web3 avrà bisogno di sistemi che possano sostenere un’attività autonoma mantenendo responsabilità, controllo e fiducia. Questo potrebbe rivelarsi importante quanto l’automazione stessa.

Disclaimer

Tutte le informazioni contenute nel nostro sito web sono pubblicate in buona fede e solo a scopo informativo generale. Qualsiasi azione intrapresa dal lettore in base alle informazioni contenute nel nostro sito web è strettamente a suo rischio e pericolo.

Contenuto sponsorizzato
Contenuto sponsorizzato