Gli agenti AI sono stati protagonisti all’ETHDenver 2026, spaziando dalla finanza autonoma alla robotica on-chain. Tuttavia, mentre cresce l’entusiasmo per le “agentic economies”, sta emergendo una questione più complessa: le istituzioni possono dimostrare su quali dati sono stati addestrati i loro sistemi AI?
Tra le startup che cercano di risolvere questo problema c’è Perle Labs, che sostiene come i sistemi AI necessitino di una catena di custodia verificabile per i dati di addestramento, soprattutto in contesti regolamentati e ad alto rischio. Concentrandosi sulla creazione di un’infrastruttura dati verificabile e certificabile per le istituzioni, Perle ha raccolto fino ad oggi 17,5 milioni di dollari, con il più recente round di finanziamento guidato da Framework Ventures. Tra gli altri investitori figurano CoinFund, Protagonist, HashKey e Peer VC. L’azienda segnala che oltre un milione di annotatori hanno contribuito con più di un miliardo di dati valutati sulla sua piattaforma.
BeInCrypto ha intervistato Ahmed Rashad, CEO di Perle Labs, a margine dell’ETHDenver 2026. Rashad in passato ha ricoperto un ruolo dirigenziale operativo presso Scale AI durante la sua fase di ipercrescita. Nel corso della conversazione, ha spiegato in dettaglio temi come la provenienza dei dati, il collasso dei modelli, i rischi avversariali e perché crede che l’intelligenza sovrana diventerà un prerequisito per implementare sistemi AI in ambiti critici.
BeInCrypto: Descrivi Perle Labs come il “livello di intelligenza sovrana per l’AI”. Per chi non segue le discussioni sull’infrastruttura dei dati, cosa significa concretamente tutto ciò?
Ahmed Rashad: “La scelta della parola sovrana è voluta e include diversi livelli di significato.
Il significato più letterale è il controllo. Se sei un governo, un ospedale, un appaltatore della difesa o una grande azienda che implementa AI in un ambiente ad alto rischio, devi possedere l’intelligenza alle spalle di quel sistema, non affidarti a una scatola nera che non puoi ispezionare né verificare. Sovrana significa sapere su quali dati è stata addestrata la tua AI, chi li ha validati e poterlo dimostrare. Oggi, la maggior parte del settore non può affermare questo.
Il secondo significato è l’indipendenza. Agire senza interferenze esterne. Questo è esattamente ciò di cui istituzioni come il DoD, o una grande azienda, hanno bisogno quando implementano AI in ambienti sensibili. Non si può permettere che la propria infrastruttura AI critica dipenda da pipeline di dati che non si controllano, che non si possono verificare, e che non si possono difendere da eventuali manomissioni. Non si tratta di un rischio teorico. NSA e CISA hanno entrambe pubblicato linee guida operative sui rischi delle catene di approvvigionamento dei dati considerandole un problema di sicurezza nazionale.
Il terzo significato è la responsabilità. Quando l’AI passa dalla generazione di contenuti al prendere decisioni, siano esse mediche, finanziarie o militari, qualcuno deve poter rispondere: da dove proviene l’intelligenza? Chi l’ha verificata? Quella registrazione è permanente? Su Perle, il nostro obiettivo è che ogni contribuzione di ogni annotatore esperto venga registrata on-chain. Non può essere riscritta. Questa immutabilità rende l’aggettivo sovrana corretto, non solo aspirazionale.
In pratica, stiamo costruendo un livello di verifica e certificazione. Se un ospedale implementa un sistema diagnostico AI, dovrebbe poter risalire ogni dato del dataset di addestramento fino al professionista qualificato che l’ha validato. Questa è intelligenza sovrana. Ecco cosa intendiamo noi.”
BeInCrypto: Sei stato parte di Scale AI durante la sua fase di ipercrescita, inclusi contratti di difesa importanti e l’investimento di Meta. Cosa ti ha insegnato quell’esperienza sui punti critici delle pipeline dati tradizionali per l’AI?
Ahmed Rashad: “Scale era un’azienda straordinaria. Ho vissuto il passaggio dai 90 milioni di dollari agli attuali 29 miliardi di dollari, tutto si stava formando e ho avuto modo di vedere da vicino dove emergono le crepe.
Il problema fondamentale è che qualità e scala dei dati si muovono in direzioni opposte. Quando cresci di 100 volte, la pressione è sempre quella di muoversi in fretta: più dati, annotazione più rapida, costo per etichetta più basso. E a rimetterci sono la precisione e la responsabilità. Si finisce con pipeline opache: sai più o meno cosa è entrato, hai qualche metrica sulla qualità del risultato, ma quello che accade in mezzo resta una scatola nera. Chi ha validato questo dato? Era veramente qualificato? L’annotazione era coerente? A scala, con i modelli tradizionali, queste domande sono quasi impossibili da rispondere.
La seconda cosa che ho imparato è che l’elemento umano viene quasi sempre trattato come un costo da ridurre piuttosto che come una risorsa da valorizzare. Il modello transazionale — pagare per ogni task e ottimizzare solo la produttività — alla lunga deteriora la qualità. Si consumano i migliori contributori. Le persone in grado di fornire annotazioni di alta qualità e di livello esperto non sono le stesse disposte a sopportare la gamification delle micro-task per pochi centesimi. Se si vuole quel livello di qualità nei dati bisogna proprio costruire in modo differente.
Su questa consapevolezza si fonda Perle. Il problema di dati non si risolve con più forza lavoro. Si risolve trattando i contributori come professionisti, integrando la certificazione verificabile nel sistema e rendendo tutto il processo verificabile e auditabile, dal principio alla fine.”
BeInCrypto: Avete raggiunto un milione di annotatori e oltre un miliardo di dati valutati. La maggior parte delle piattaforme di data labeling si affida al lavoro anonimo della crowd. Cosa c’è di strutturalmente diverso nel vostro modello reputazionale?
Ahmed Rashad: “La differenza principale è che, su Perle, la tua cronologia lavorativa è tua e resta permanente. Quando completi un’attività, la registrazione di quel contributo, il livello di qualità raggiunto, come si è confrontato con il consenso degli esperti, tutto viene registrato on-chain. Non si può modificare, eliminare né riassegnare. Nel tempo, questo diventa una vera e propria credenziale professionale che si accumula.
Rispetto invece al lavoro anonimo della crowd, dove una persona è essenzialmente fungibile. Non ha interesse alla qualità, perché non esiste una reputazione, ogni task è disconnesso dalla precedente. L’infrastruttura degli incentivi produce esattamente ciò che ci si aspetterebbe: il minimo indispensabile per portare a termine il compito.
Il nostro modello invece ribalta questo schema. I contributori costruiscono uno storico verificabile. La piattaforma riconosce le competenze specifiche. Ad esempio, un radiologo che fornisce costantemente annotazioni di alta qualità su immagini mediche costruisce un profilo che riflette questa eccellenza. Questa reputazione consente l’accesso a task di maggior valore, una remunerazione migliore e attività più significative. È un circolo virtuoso: la qualità si moltiplica perché gli incentivi la premiano.
Abbiamo superato un miliardo di punti valutati tramite la nostra rete di annotatori. Non è solo una questione quantitativa: sono un miliardo di contributi dati attribuibili e tracciabili, da persone verificate. Questa è la base per dati di addestramento affidabili per l’AI; ed è strutturalmente impossibile replicarla con il lavoro anonimo della crowd.”
BeInCrypto: Il collasso dei modelli viene discusso spesso tra i ricercatori, ma raramente entra nei discorsi mainstream sull’AI. Secondo te, perché è così, e dovremmo preoccuparci di più?
Ahmed Rashad: “Non entra nelle conversazioni mainstream perché è una crisi che si manifesta lentamente, non in modo drammatico. Il collasso dei modelli, ovvero quando i sistemi AI addestrati su dati generati da altre AI iniziano gradualmente a degradarsi, perdendo sfumature e tendendo verso la mediocrità, non crea eventi da titoloni sui giornali. Produce un’erosione lenta della qualità, facile da non notare fino a che non diventa critica.
Il meccanismo è semplice: Internet si sta riempiendo di contenuti generati dall’AI. I modelli addestrati su questi contenuti imparano dai loro stessi output anziché dalla vera conoscenza ed esperienza umana. Ogni generazione di addestramento amplifica le distorsioni già presenti. È un circolo vizioso senza correzione naturale.
Dovremmo preoccuparci di più? Sì, soprattutto nei settori a rischio elevato. Quando il collasso dei modelli influenza un algoritmo di raccomandazione di contenuti, le raccomandazioni peggiorano. Ma quando impatta un modello diagnostico medico, un sistema di ragionamento legale o uno strumento di intelligence militare, le conseguenze sono di tutt’altra portata. I margini per la degradazione scompaiono.
Ecco perché lo strato di dati verificati dagli esseri umani non è opzionale man mano che l’IA entra nelle infrastrutture critiche. Serve una fonte continua di intelligenza umana autentica e diversificata per l’addestramento; non semplicemente output generati da IA passati attraverso un altro modello. Noi abbiamo oltre un milione di annotatori con reale esperienza in svariati settori. Questa diversità è l’antidoto al collasso dei modelli. Non puoi risolvere il problema con dati sintetici o maggiore potenza di calcolo.”
BeInCrypto: Quando l’IA si sposta dagli ambienti digitali ai sistemi fisici, cosa cambia fondamentalmente riguardo al rischio, alla responsabilità e agli standard applicati al suo sviluppo?
Ahmed Rashad: Cambia l’irreversibilità. È questo il punto centrale. Un modello linguistico che allucina produce una risposta errata. Puoi correggerla, segnalarla e andare avanti. Un sistema robotico per la chirurgia che agisce su un’inferenza errata, un veicolo autonomo che fa una cattiva classificazione, un drone che agisce su un bersaglio identificato in modo scorretto: questi errori non hanno un tasto “annulla”. Il costo del fallimento passa dall’essere imbarazzante a essere catastrofico.
Questo cambia tutto riguardo agli standard da applicare. Negli ambienti digitali, lo sviluppo dell’IA è stato ampiamente lasciato libero di muoversi rapidamente e correggersi da sé. Nei sistemi fisici, questo modello non è sostenibile. È necessario che i dati di addestramento per questi sistemi siano verificati prima del loro impiego, non controllati successivamente a un incidente.
Cambia anche la responsabilità. In un contesto digitale, è relativamente semplice distribuire la responsabilità: è stato il modello? I dati? Il deployment? Nei sistemi fisici, soprattutto quando sono le persone a subire danni, le autorità di regolamentazione e i tribunali vorranno risposte chiare. Chi ha addestrato questo sistema? Con quali dati? Chi ha validato quei dati e secondo quali standard? Le aziende e i governi che potranno rispondere a queste domande saranno quelli autorizzati a operare. Chi non potrà farlo si troverà davanti a responsabilità inattese.
Abbiamo creato Perle proprio per questa transizione. Verificata dagli esseri umani, proveniente da esperti, auditabile su blockchain. Quando l’IA inizia a essere impiegata in magazzini, sale operatorie e zone di conflitto, lo strato di intelligenza sottostante deve rispondere a uno standard differente. È a questo standard che stiamo lavorando.
BeInCrypto: Quanto è reale oggi la minaccia della contaminazione dei dati o della manipolazione avversariale nei sistemi di IA, soprattutto a livello nazionale?
Ahmed Rashad: “È reale, è documentata, ed è già trattata come una priorità di sicurezza nazionale da chi ha accesso a informazioni riservate sull’argomento.
Il programma GARD di DARPA (Guaranteeing AI Robustness Against Deception) ha impiegato anni nello sviluppo di difese specifiche contro attacchi avversariali ai sistemi di IA, inclusa la contaminazione dei dati. NSA e CISA hanno pubblicato congiuntamente nell’anno 2025 linee guida che avvertono esplicitamente che le vulnerabilità nella supply chain dei dati e i dati di addestramento modificati in modo malevolo rappresentano minacce concrete all’integrità dei sistemi di IA. Non si tratta di paper teorici: sono indicazioni operative di agenzie che non diffondono allarmi su rischi ipotetici.
La superficie d’attacco è significativa. Se comprometti i dati di addestramento di un sistema IA usato per il rilevamento delle minacce, la diagnostica medica o l’ottimizzazione logistica, non è necessario hackerare il sistema stesso. Hai già modificato il modo in cui interpreta il mondo. È un vettore d’attacco molto più elegante e difficile da individuare rispetto agli attacchi di cybersecurity tradizionali.
Il contratto da 300 milioni di dollari che Scale AI detiene con il CDAO del Dipartimento della Difesa, per implementare l’IA su reti classificate, esiste in parte perché il governo ha compreso che non può impiegare l’IA addestrata su dati pubblici non verificati in ambienti sensibili. Il tema della provenienza dei dati, a quel livello, non è accademico. È operativo.
Ciò che manca nel dibattito mainstream è la consapevolezza che questo non è solo un problema governativo. Qualsiasi azienda che implementa IA in un ambiente competitivo, nei servizi finanziari, nel farmaceutico, nelle infrastrutture critiche, ha un’esposizione ai dati avversariali che probabilmente non ha mappato completamente. La minaccia è reale. Le difese sono ancora in fase di sviluppo.”
BeInCrypto: Perché un governo o una grande azienda non può semplicemente costruire internamente questo strato di verifica? Qual è la vera risposta quando qualcuno si oppone a questa affermazione?
Sponsored SponsoredAhmed Rashad: “Alcuni ci provano. E chi ci prova impara in fretta qual è il vero problema.
Costruire la tecnologia è la parte semplice. La parte difficile è la rete. Esperti verificati e qualificati in vari settori, radiologi, linguisti, giuristi, ingegneri, scienziati, non compaiono semplicemente perché hai creato una piattaforma per loro. Devi reclutarli, qualificarli, costruire strutture di incentivi che li mantengano motivati e sviluppare meccanismi di consenso sulla qualità che rendano i loro contributi significativi su larga scala. Questo richiede anni e un know-how che la maggior parte delle agenzie governative e delle imprese non ha internamente.
Il secondo problema è la diversità. Un’agenzia che costruisce internamente il proprio livello di verifica attinge, per definizione, a un bacino limitato e relativamente omogeneo. Il valore di una rete globale di esperti non è solo nei criteri di qualificazione; è la gamma di prospettive, lingue, contesti culturali e specializzazioni settoriali che si possono ottenere solo operando veramente su scala globale. Noi abbiamo oltre un milione di annotatori. Non è qualcosa che si può replicare internamente.
Il terzo problema è la progettazione degli incentivi. Mantenere attivi contributor di alta qualità nel tempo richiede una ricompensa trasparente, equa e programmabile. Le infrastrutture blockchain lo rendono possibile in un modo che i sistemi interni di solito non possono replicare: tracciabilità immutabile dei contributi, attribuzione diretta e pagamenti verificabili. Un sistema di procurement governativo non è progettato per farlo in modo efficiente.
La risposta onesta a queste obiezioni è: non stai semplicemente acquistando uno strumento. Stai accedendo a una rete e a un sistema di qualificazione costruito in anni di lavoro. L’alternativa non è “costruiscilo da solo”, ma “usa quello che già esiste oppure accetta il rischio sulla qualità dei dati che deriva dal non averlo a disposizione”.
BeInCrypto: Se l’IA diventa parte dell’infrastruttura nazionale, dove si colloca lo strato di intelligence sovrano in quel “pila” tra cinque anni?
Ahmed Rashad: “Tra cinque anni, credo che assomiglierà a ciò che oggi è la funzione di revisione contabile: uno strato di verifica imprescindibile tra i dati e la loro applicazione, con supporto normativo e standard professionali rigorosi.
Al momento, lo sviluppo dell’IA procede senza nulla di simile a una revisione contabile. Le aziende auto-certificano i propri dati di addestramento. Non esistono verifiche indipendenti, né sistemi professionali di qualificazione del processo, né attestazioni di parte terza che l’intelligenza dietro a un modello risponda a uno standard definito. Siamo all’equivalente delle finanze pre-Sarbanes-Oxley, basandoci in gran parte sulla fiducia e sull’auto-certificazione.
Quando l’IA diventerà infrastruttura critica, gestendo reti elettriche, sistemi sanitari, mercati finanziari, reti di difesa, questo modello non sarà più sostenibile. I governi imporranno l’auditabilità. I processi di procurement richiederanno la provenienza verificata dei dati come condizione contrattuale. Le strutture di responsabilità collegheranno sanzioni a qualsiasi errore che sarebbe stato prevenibile da una verifica corretta.
Il ruolo di Perle sarà quello di livello di verifica e di qualificazione, cioè l’entità in grado di fornire una traccia immutabile e auditabile di cosa è stato utilizzato per addestrare un modello, da chi, seguendo quali standard. Questo, tra cinque anni, non sarà una semplice funzionalità dello sviluppo IA. Sarà un prerequisito.
Il punto più ampio è che l’intelligenza sovrana non è una preoccupazione di nicchia solo per i contractor della difesa. È la base che rende utilizzabile l’IA in qualsiasi contesto dove un fallimento può avere conseguenze concrete. E, man mano che l’IA penetra in sempre più di questi ambiti, quella base diventa la parte più preziosa dell’intera infrastruttura.”