Indietro

Il CEO di Nansen spiega perché l’AI non può sostituire la convinzione umana nel trading crypto

author avatar

Scritto da
Kamina Bashir

editor avatar

Modificato da
Harsh Notariya

22 gennaio 2026 14:48 CET
  • Nansen lancia strumenti AI per migliorare l’analisi e l’esecuzione del trading on-chain.
  • Il CEO di Nansen afferma che l’intelligenza artificiale aumenta il giudizio umano, senza sostituirlo, nell’analisi delle crypto.
  • L’intelligenza artificiale eccelle nella scala e nel rilevamento dei pattern, mentre gli esseri umani mantengono la convinzione e la responsabilità.
Promo

L’intelligenza artificiale ha trasformato numerosi settori e, ovunque si affacci, si ripete sempre la stessa domanda: Sostituirà gli esseri umani? Nel settore crypto, il suo impatto è già evidente, dalle strategie di trading automatizzate gestite da bot AI fino a sistemi di trading agentici.

Tuttavia, Alex Svanevik, CEO e co-fondatore di Nansen, sostiene che l’AI non è un sostituto del giudizio umano, ma piuttosto un’integrazione. In un’intervista esclusiva con BeInCrypto, Svanevik esplora in profondità questo cambiamento e spiega in dettaglio cosa attende l’analisi supportata dall’intelligenza artificiale.

Il dibattito sull’AI nella crypto, il CEO di Nansen sostiene l’uso come supporto e non come sostituzione

Il 21 gennaio, Nansen ha annunciato il lancio della sua funzionalità di trading on-chain alimentata dall’AI. Si tratta di un cambio di rotta importante: da una piattaforma pura di analisi a un prodotto integrato, che unisce insight e possibilità di esecuzione.

Sponsored
Sponsored

Basata sul suo database proprietario di oltre 500 milioni di wallet etichettati, la nuova release permette agli utenti di gestire portafogli, interpretare segnali on-chain in tempo reale e ricevere suggerimenti basati sui dati. Consente anche di eseguire operazioni direttamente all’interno di Nansen.

“Addestrata e valutata sul dataset proprietario di Nansen, la Nansen AI supera costantemente i principali prodotti AI nei benchmark progettati per l’analisi e il trading on-chain. Ciò garantisce che gli insight offerti siano non solo più accurati, ma anche direttamente attuabili per trader e investitori, trasformando l’intelligenza agentica in un vantaggio pratico sul trading”, si legge nell’annuncio.

Inoltre, il lancio introduce ciò che Nansen chiama “vibe trading”. Viene descritto come un modo più intuitivo di passare dall’insight all’operatività on-chain senza cambiare strumenti.

Man mano che l’AI assume sempre più compiti di analisi, si mette in discussione il ruolo degli analisti umani. Svanevik afferma che l’AI eccelle nella gestione di grandi volumi, consentendo di analizzare centinaia di milioni di wallet, monitorare i flussi cross-chain e identificare schemi che sarebbero difficili da individuare per un umano.

Tuttavia, ha sottolineato che il processo decisionale resta in mano agli utenti, i quali guidano il flusso ponendo le giuste domande e approvando le azioni.

“Il confine non è fisso. Si sposta man mano che l’AI migliora nel ragionamento e i dati on-chain diventano più ricchi. Ma l’obiettivo non è sostituire il giudizio. Si tratta di liberare gli esseri umani dai lavori ripetitivi, per permettere loro di concentrarsi su decisioni di ordine superiore,” ha dichiarato.

Cosa rende credibile un’analisi in un mercato crypto guidato dall’intelligenza artificiale?

Le ricerche suggeriscono che un ricorso crescente agli strumenti basati su intelligenza artificiale si possa collegare a un indebolimento delle capacità di pensiero critico. Nei mercati delle criptovalute, dove i trader devono navigare tra estrema volatilità e asset ad alto rischio, la posta in gioco è ancora più alta.

Sponsored
Sponsored

Tuttavia, Svanevik offre una visione diversa. Egli sostiene che “una buona AI” fa emergere più segnali, spingendo anche gli utenti a riflettere in modo più critico sull’operatività.

“Il vero rischio sistemico c’è quando tutti seguono lo stesso schema. Non è qualcosa di esclusivo dell’AI—succede anche con gli analisti umani. La risposta sta nella diversità: modelli diversi, strategie diverse, interpretazioni differenti dei dati. Ecco perché stiamo costruendo strumenti che rafforzano le decisioni individuali, non un unico oracolo seguito da tutti,” ha aggiunto.

L’executive sottolinea inoltre che né l’AI né gli analisti umani vanno seguiti ciecamente. Secondo lui, ciò che conta realmente è se un’analisi si dimostra valida nel tempo.

Interrogato sulla credibilità nel mercato guidato dall’AI, il CEO ha spiegato che,

“La credibilità nell’era dell’AI si costruisce su misurazioni e ripetizione, non su un nome o un seguito su Twitter. L’AI ha il vantaggio di poter essere testata senza sosta, su larga scala, e confrontata con la realtà in un modo che un singolo essere umano non può fare.”

Ha inoltre condiviso che il test più immediato è di tipo pratico. Svanevik suggerisce che gli utenti dovrebbero porre domande che contano per loro e valutare se le risposte sono concrete, utili e attuabili, notando come gli utenti siano spesso giudici efficaci della qualità.

Sponsored
Sponsored

“Nel lungo periodo, la fiducia si sposterà dagli analisti individuali alle piattaforme capaci di dimostrare, continuamente, di saper identificare segnali e ridurre il rumore. Questo è lo standard a cui ci atteniamo,” ha detto Svanevik a BeInCrypto.

Perché l’IA può analizzare i dati on-chain, ma non può sostituire la convinzione umana

Gli analisti umani spesso prendono decisioni di trading sintesiando metriche on-chain, dati di prezzo e altri segnali attraverso il giudizio e l’interpretazione del contesto. Al contrario, i sistemi AI si basano su schemi appresi dai dati storici.

Alla domanda se l’AI possa arrivare, col tempo, a sviluppare una forma di giudizio simile a quella umana, Svanevik ha rivelato che ciò è probabile, anche se non nel senso stretto del termine umano.

Ha spiegato in dettaglio che l’AI svilupperà una propria forma di ragionamento contestuale. L’executive ritiene che potrebbe essere molto più efficace nell’integrare dati live su un numero molto più ampio di variabili di quanto possa fare un essere umano.

“La strada per arrivarci passa attraverso dati di addestramento migliori, finestre di contesto più ampie e cicli di feedback dall’esecuzione reale. Stiamo già osservando questo progresso con il nostro agente. Non si limita a riconoscere schemi: ragiona anche sui dati comportamentali in tempo reale. Questo è un giudizio agli stadi iniziali. Diventerà più acuto man mano che i modelli evolvono e accumuliamo esperienze da milioni di interazioni onchain,” ha commentato Svanevik.

Sponsored
Sponsored

Tuttavia, ha anche identificato un aspetto dell’analisi on-chain che, secondo lui, l’AI non potrà mai sostituire completamente: farsi carico delle decisioni in condizioni di incertezza.

Svanevik sottolinea che, sebbene l’AI possa portare alla luce schemi, probabilità e scenari possibili, valutare ciò che è accaduto o potrà accadere in base ai dati, non può definire la tolleranza al rischio di un individuo, i suoi valori o prendersi la responsabilità delle decisioni quando i risultati sono negativi.

“L’analisi on-chain si concretizza, in definitiva, in azioni nel mondo reale: allocare capitali, supportare team, esporsi pubblicamente. Qualcuno deve assumersi la responsabilità di queste decisioni. Questo resta un compito umano,” ha commentato l’executive.

Ha sottolineato che, indipendentemente da quanto avanzati diventino i modelli di intelligenza artificiale, la credibilità continuerà a dipendere dagli esseri umani nelle questioni di giudizio, responsabilità e convinzione. L’intelligenza artificiale può fornire informazioni utili per prendere decisioni, ma sono sempre gli esseri umani a prendere le decisioni e a subirne le conseguenze.

“Decidere cosa conta davvero. L’intelligenza artificiale può dirti cosa sta succedendo on-chain, ma non può dirti cosa ti dovrebbe importare. Quello è gusto. Quella è convinzione. Quello è umano,” ha commentato Svanevik.

In definitiva, Svanevik considera l’intelligenza artificiale come un potente abilitatore, non come un decisore. Se è vero che può mettere in evidenza pattern, probabilità e spunti su una scala senza precedenti, il giudizio umano resta centrale per il rischio, la responsabilità e la convinzione.

Man mano che le analisi guidate dall’intelligenza artificiale diventano sempre più diffuse, la fiducia si sposterà sempre di più sulle piattaforme capaci di dimostrare costantemente la qualità delle proprie analisi. Allo stesso tempo, gli esseri umani restano responsabili di decidere cosa è importante e di sostenere i risultati ottenuti.

Disclaimer

Tutte le informazioni contenute nel nostro sito web sono pubblicate in buona fede e solo a scopo informativo generale. Qualsiasi azione intrapresa dal lettore in base alle informazioni contenute nel nostro sito web è strettamente a suo rischio e pericolo.

Contenuto sponsorizzato
Contenuto sponsorizzato