L’aumento degli investimenti negli agenti AI suggerisce un futuro di automazione diffusa, potenzialmente ancora più trasformativa della rivoluzione industriale. Come con qualsiasi innovazione tecnologica, gli agenti AI affronteranno inevitabilmente problemi nel loro sviluppo. Il miglioramento continuo sarà essenziale per un uso responsabile e per realizzare il pieno potenziale degli agenti AI.
Al Consensus di Hong Kong, BeInCrypto ha intervistato Andrei Grachev, Managing Partner di DWF Labs, sui principali ostacoli che gli agenti AI devono affrontare per raggiungere un’adozione di massa e su come potrebbe apparire un uso diffuso.
I settori tecnologici tradizionali e Web3 abbracciano l’AI
A questo punto, è sicuro dire che l’adozione dell’intelligenza artificiale (AI) sarà presto inevitabile. I giganti della tecnologia, tra cui Meta, Amazon, Alphabet e Microsoft, hanno già annunciato piani per investire fino a $320 miliardi in AI e data center nel 2025.
Durante la sua prima settimana in carica, il Presidente degli Stati Uniti Trump ha annunciato Stargate, una nuova joint venture privata focalizzata sullo sviluppo di data center AI. La venture, composta da OpenAI, Softbank e Oracle, prevede di costruire fino a 20 grandi data center AI negli Stati Uniti.
L’investimento iniziale è stimato a $100 miliardi, e i piani di espansione potrebbero portare il totale a $500 miliardi entro il 2029.
Anche i progetti Web3 stanno facendo investimenti simili nell’AI. A dicembre, DWF Labs, una delle principali società di venture capital crypto, ha lanciato un fondo da $20 milioni per agenti AI per accelerare l’innovazione nelle tecnologie AI autonome.
All’inizio di questo mese, la NEAR Foundation, che supporta il protocollo NEAR, ha annunciato anche il proprio fondo da $20 milioni focalizzato sull’espansione dello sviluppo di agenti completamente autonomi e verificabili costruiti sulla tecnologia NEAR.
“La storia mostra che tutto ciò che può essere automatizzato sarà automatizzato, e sicuramente alcuni processi aziendali e di vita normale saranno superati dagli agenti AI,” ha detto Grachev a BeInCrypto.
Ma man mano che lo sviluppo dell’AI accelera, il potenziale per il suo uso improprio diventa una preoccupazione crescente.
Uso malevolo di agenti AI
Nel Web3, gli agenti AI stanno già rapidamente diventando mainstream. Offrono capacità diverse, dall’analisi di mercato al trading crypto autonomo.
Tuttavia, la loro crescente integrazione presenta anche sfide critiche. L’uso improprio dell’AI da parte di attori malintenzionati è una preoccupazione importante, comprendendo scenari che vanno da semplici campagne di phishing ad attacchi ransomware sofisticati.
La disponibilità diffusa di AI generativa dalla fine del 2022 ha cambiato fondamentalmente la creazione di contenuti attirando anche attori malintenzionati che cercano di sfruttare la tecnologia. Questa democratizzazione della potenza di calcolo ha migliorato le capacità degli avversari e potenzialmente abbassato la barriera d’ingresso per attori di minaccia meno sofisticati.
Secondo un rapporto di Entrust, i falsi documenti digitali facilitati da strumenti AI ora superano i falsi fisici, con un aumento del 244% anno su anno nel 2024. Nel frattempo, i deepfake hanno rappresentato il 40% di tutte le frodi biometriche.

“Viene già utilizzato per truffe. È usato per videochiamate quando si rappresentano falsamente persone e si falsificano le loro voci,” ha detto Grachev.
Esempi di questo tipo di sfruttamento hanno già fatto notizia. All’inizio di questo mese, un lavoratore finanziario di una multinazionale a Hong Kong è stato ingannato nell’autorizzare un pagamento di $25 milioni a truffatori che utilizzano la tecnologia deepfake.
Il lavoratore ha partecipato a una videochiamata con individui che credeva fossero colleghi, incluso il direttore finanziario dell’azienda. Nonostante l’iniziale esitazione, il lavoratore ha proceduto con il pagamento dopo che gli altri partecipanti sono apparsi e suonavano autentici, secondo i rapporti. È stato successivamente scoperto che tutti i partecipanti erano fabbricazioni deepfake.
Da adozione iniziale ad accettazione mainstream
Grachev crede che tali usi malintenzionati siano inevitabili. Nota che lo sviluppo tecnologico è spesso accompagnato da errori iniziali, che diminuiscono man mano che la tecnologia matura. Grachev ha fornito due esempi distinti per dimostrare il suo punto: le fasi iniziali del World Wide Web e Bitcoin.
“Dovremmo ricordare che Internet è iniziato dai siti porno. Era come il primo Bitcoin, che è iniziato dai trafficanti di droga e poi è migliorato,” ha detto.
Diversi rapporti concordano con Grachev. Suggeriscono che l’industria dell’intrattenimento per adulti ha giocato un ruolo cruciale nella prima adozione e sviluppo di Internet. Oltre a fornire una base di consumatori, ha aperto la strada a tecnologie come i videoregistratori, lo streaming video, la realtà virtuale e qualsiasi forma di comunicazione.
Il porno ha agito come uno strumento di onboarding. L’industria dell’intrattenimento per adulti ha storicamente guidato l’adozione dei consumatori di nuove tecnologie.
Il suo precoce abbraccio e applicazione delle innovazioni, in particolare quando soddisfa con successo le esigenze del suo pubblico, spesso porta a un’adozione più ampia e mainstream.
“È iniziato con il divertimento, ma il divertimento ha portato a bordo molte persone. Poi puoi costruire qualcosa su questo pubblico,” ha detto Grachev.
Nel tempo, sono state messe in atto misure di sicurezza per limitare la frequenza e l’accessibilità dell’intrattenimento per adulti. Indipendentemente da ciò, è ancora uno dei numerosi servizi che Internet offre oggi.
Il viaggio di Bitcoin dal darknet alla disruption
L’evoluzione di Bitcoin rispecchia da vicino i primi casi d’uso di Internet. L’adozione iniziale di Bitcoin è stata significativamente associata ai mercati darknet e ad attività illecite, tra cui traffico di droga, frode e riciclaggio di denaro. La sua natura pseudonima e la facilità di trasferimenti di fondi a livello globale lo rendevano attraente per i criminali.
Nonostante il suo uso continuato in attività criminali, Bitcoin ha trovato numerose applicazioni legittime. La tecnologia blockchain che sostiene le criptovalute fornisce soluzioni per problemi del mondo reale e sconvolge i sistemi finanziari tradizionali.
Sebbene siano ancora industrie molto nascenti, le applicazioni di criptovaluta e blockchain continueranno a evolversi. Secondo Garchev, lo stesso accadrà con l’impiego graduale della tecnologia AI. Per lui, gli errori devono essere accolti per imparare da essi e adattarsi di conseguenza.
“Dovremmo sempre ricordare che la frode avviene prima e poi le persone iniziano a pensare a come prevenirla. Certo, succederà, ma è un processo normale, è una curva di apprendimento,” ha detto Grachev.
Tuttavia, sapere che queste situazioni si verificheranno in futuro solleva anche domande su chi dovrebbe essere ritenuto responsabile.
Preoccupazioni di responsabilità
Determinare la responsabilità quando si verifica un danno a causa delle azioni di un agente è una questione legale ed etica complessa. Inevitabilmente sorge la questione di come ritenere l’AI responsabile.
La complessità dei sistemi AI crea sfide nel determinare la responsabilità per i danni. La loro natura di “scatola nera”, il comportamento imprevedibile e le capacità di apprendimento continuo rendono difficile applicare le idee tipiche su chi sia colpevole quando qualcosa va storto.
Inoltre, il coinvolgimento di più parti nello sviluppo e nella distribuzione dell’AI complica le valutazioni di responsabilità, rendendo difficile determinare la colpevolezza dei fallimenti dell’AI.
La responsabilità potrebbe ricadere sul produttore per difetti di progettazione o produzione, sullo sviluppatore del software per problemi con il codice, o sull’utente per non aver seguito le istruzioni, installato aggiornamenti o mantenuto la sicurezza.
“Penso che tutto sia troppo nuovo, e penso che dovremmo essere in grado di imparare da esso. Dovremmo essere in grado di fermare alcuni agenti AI se necessario. Ma dal mio punto di vista, se non c’era alcuna cattiva intenzione nel crearlo, nessuno è responsabile perché è qualcosa di veramente nuovo,” ha detto Grachev a BeInCrypto.
Tuttavia, secondo lui, queste situazioni devono essere gestite con attenzione per evitare di impattare potenzialmente l’innovazione continua.
“Se incolpi questo imprenditore, ucciderebbe le innovazioni perché le persone avrebbero paura. Ma se funziona in modo sbagliato, giusto, potrebbe eventualmente funzionare. Dobbiamo avere un modo per fermarlo, imparare, migliorare e reimparare,” ha aggiunto Grachev.
La linea sottile, tuttavia, rimane estremamente sottile, specialmente in scenari più estremi.
Affrontare i problemi di fiducia per un’adozione responsabile dell’IA
Una paura comune quando si discute del futuro dell’intelligenza artificiale riguarda situazioni in cui gli agenti AI diventano più potenti degli esseri umani.
“Ci sono molti film su questo. Se stiamo parlando, diciamo, di controlli di polizia o governativi, o di qualche esercito in qualche tipo di guerra, ovviamente l’automazione è come una grande paura. Alcune cose possono essere automatizzate a un livello tale da poter ferire gli esseri umani,” ha detto Grachev.
Quando gli è stato chiesto se uno scenario del genere potesse accadere, Grachev ha detto che, in teoria, potrebbe. Indipendentemente da ciò, ha ammesso di non poter sapere cosa accadrà in futuro.
Tuttavia, situazioni come queste sono emblematiche dei problemi di fiducia fondamentali tra esseri umani e intelligenza artificiale. Grachev afferma che il modo migliore per affrontare questo problema è esporre gli esseri umani a casi d’uso in cui l’AI può effettivamente essere utile.
“L’AI può essere difficile da credere per le persone. Ecco perché dovrebbe iniziare con qualcosa di semplice, perché la fiducia nell’agente AI non sarà costruita quando qualcuno spiega che è affidabile. Le persone dovrebbero abituarsi a usarlo. Ad esempio, se stai parlando di crypto, puoi lanciare una meme, diciamo su Pump.fun, ma perché non lanciarla con un messaggio vocale? Con gli agenti AI, basta inviare un messaggio vocale che dice ‘per favore lancia questo e quello,’ e viene lanciato. E poi il passo successivo [sarebbe] fidarsi dell’agente con alcune decisioni più importanti,” ha detto.
In definitiva, il percorso verso un’adozione diffusa dell’AI sarà indubbiamente segnato da notevoli progressi e sfide impreviste.
Bilanciare l’innovazione con un’implementazione responsabile in questo settore in via di sviluppo sarà cruciale per plasmare un futuro in cui l’AI benefici tutta l’umanità.
Dichiarazione di non responsabilità
Tutte le informazioni contenute nel nostro sito web sono pubblicate in buona fede e solo a scopo informativo generale. Qualsiasi azione intrapresa dal lettore in base alle informazioni contenute nel nostro sito web è strettamente a suo rischio e pericolo.