Il calcolo decentralizzato è emerso in primo piano poiché le industrie richiedono maggiore flessibilità e autonomia al di là della portata dei giganti tradizionali del cloud. Fluence, co-fondata da Evgeny Ponomarev, sta sfidando audacemente il dominio di AWS, Azure e Google Cloud con il suo concetto di “cloudless computing”—aggregando la potenza di calcolo globale attraverso una rete aperta e decentralizzata.
BeInCrypto ha intervistato Ponomarev per esplorare la logica dietro questo approccio rivoluzionario, discutendo le sfide affrontate, le reazioni dell’industria, la tokenomics e il futuro dell’infrastruttura decentralizzata. Ponomarev ha condiviso le strategie che Fluence impiega per offrire risparmi sui costi, rafforzare la governance della comunità e integrarsi con i protocolli Web3.
Definire il Cloudless Computing e le lacune di mercato
In Fluence, lavoriamo nel calcolo decentralizzato. Abbiamo costruito quella che chiamiamo una piattaforma “cloudless”—un termine che usiamo per descrivere la nostra alternativa ai fornitori di cloud tradizionali come AWS, Azure o Google Cloud. Essenzialmente, è una rete di infrastruttura fisica decentralizzata (DePIN) che offre a sviluppatori e aziende l’accesso a risorse di calcolo senza affidarsi a servizi cloud centralizzati.
Pensatela come l’Uber o l’Airbnb del cloud. Invece di affidarsi a un singolo fornitore, la nostra piattaforma aggrega risorse di calcolo da una vasta gamma di fonti indipendenti. È un protocollo open-source e senza permessi che consente agli sviluppatori di accedere a queste risorse.
Industrie, casi d’uso e focus su Web3
Al momento, ci rivolgiamo principalmente al mercato Web3, che è un focus chiave di questa conferenza. Nello spazio Web3, un caso d’uso fondamentale riguarda l’esecuzione di nodi. Che si tratti di layer uno, layer due, roll-up o altre soluzioni blockchain, tutti si basano su nodi—essenzialmente istanze di database.
Le persone eseguono questi nodi nel cloud, su hardware dedicato o anche su computer personali a volte. Quello che offriamo è un’alternativa affidabile all’infrastruttura cloud tradizionale per eseguire questi carichi di lavoro. In particolare, gli operatori di nodi sono un segmento di mercato critico per noi all’interno dell’ecosistema Web3.
Ma essenzialmente, puoi utilizzare questa piattaforma per eseguire qualsiasi tipo di carico di lavoro come i cloud tradizionali—che si tratti di backend, database, server di gioco, app web e altro ancora.
La differenziazione di Fluence nello spazio DePIN
Come ho detto, ci stiamo concentrando esclusivamente sul calcolo. In DePIN, puoi vedere una vasta gamma di persone e progetti che fanno cose diverse. Ma l’intero modello è che stanno raccogliendo risorse da più fornitori, forse come consumatori, dispositivi degli utenti finali o aziende più professionali. Le stanno aggregando, confezionandole in prodotti e trovando clienti per loro.
Per noi, l’obiettivo è fornire risorse di calcolo. Ma quando fornisci calcolo, c’è anche una componente di archiviazione—dettagli che confezioni in diversi servizi cloud. La nostra direzione principale, tuttavia, è portare infrastrutture di calcolo, perché vediamo una domanda enorme e in crescita, soprattutto con l’ascesa dell’IA, per le risorse di calcolo.
Quindi iniziamo a fornire calcolo per gli operatori di nodi, ma poi ci espandiamo molto di più, e copriremo anche i casi d’uso dell’IA.
Sfide nella costruzione dell’orchestrazione decentralizzata
La sfida nella costruzione dell’orchestrazione decentralizzata deriva dai nostri primi esperimenti con varie soluzioni per determinare l’approccio giusto all’infrastruttura cloud.
A un certo punto, stavamo cercando di avere un’orchestrazione peer-to-peer di diverse computazioni che avvenivano su diversi hardware, nodi o dispositivi degli utenti. Ma poi ci siamo resi conto che mancavano soluzioni di livello inferiore, come la virtualizzazione di base delle risorse. Quindi abbiamo deciso di fornire prima questo, ed è quello che abbiamo ora.
E poi tornare all’orchestrazione. Ma essenzialmente, l’orchestrazione riguarda la riduzione del lock-in del fornitore. Attualmente, i grandi fornitori di cloud dominano il mercato, e molte aziende si affidano interamente a un singolo fornitore per eseguire le loro applicazioni. Questo crea quello che è noto come “rischio di piattaforma” o “rischio del fornitore”. Se il fornitore decide di de-piattaformare, vietare o modificare i prezzi, l’intera attività potrebbe essere a rischio.
Quindi, ogni volta che usi una piattaforma decentralizzata invece di un cloud centralizzato, la continuità e la sostenibilità della tua attività sono più sicure.
Tokenomics di FLT e incentivi di rete
Il token FLT svolge un ruolo cruciale nel garantire la potenza di calcolo e l’hardware all’interno della rete. Fondamentalmente, qualsiasi nuovo hardware che viene aggiunto sul lato dell’offerta della rete deve essere messo in staking dai detentori di token, e c’è un incentivo criptoeconomico a dimostrare che questo hardware è online e disponibile e ha determinate prestazioni.
Lo staking aiuta ad avere una partecipazione attiva, dove i fornitori rischiano di perdere la loro quota se non riescono a rispettare i loro impegni riguardo alla disponibilità e alle prestazioni dell’hardware. D’altra parte, i fornitori che riescono a rispettare i loro impegni guadagnano ricompense di staking.
Stiamo anche esplorando modi aggiuntivi per migliorare l’utilità di FLT. Ad esempio, abilitando prestiti garantiti in FLT, potremmo consentire ai fornitori di prendere in prestito contro le loro ricompense in token. Questo permetterebbe loro di acquisire rapidamente nuovo hardware, collegarlo alla rete e guadagnare più ricompense. Nel tempo, possono prendere in prestito contro queste ricompense per scalare ancora più velocemente.
E dal lato del cliente, puoi farlo anche sovvenzionando i prezzi per i clienti. Porteremo più meccaniche di questo tipo in futuro.
Reazioni degli sviluppatori e delle imprese al calcolo decentralizzato
Dal lato del cliente, ciò che è importante per noi è costruire un prodotto che offra un’esperienza simile alle piattaforme cloud centralizzate. È decentralizzato, ma l’esperienza utente rimane la stessa.
È per questo che gli sviluppatori sono molto aperti e positivi nei nostri confronti—è molto facile per loro passare. Se hanno carichi di lavoro nel cloud, possono semplicemente ospitarli qui. Non c’è nulla di speciale o insolito nell’esperienza dello sviluppatore.
Devi semplicemente distribuire i tuoi carichi di lavoro sulle nostre macchine virtuali e server virtuali, utilizzando chiavi SSH e processi di autorizzazione standard. Essenzialmente, l’esperienza è simile.
Ovviamente, c’è sempre l’argomento che questa è una nuova piattaforma—è una startup—quindi è richiesto un certo livello di fiducia.
È un nuovo business. Quando passi da una grande azienda affermata con 20 anni di storia a una nuova, c’è naturalmente un fattore di fiducia coinvolto. Stiamo lavorando per colmare quel divario essendo presenti ovunque, rimanendo aperti e trasparenti, fornendo supporto rapido e persino offrendo assistenza finanziaria quando necessario, soprattutto per portare progetti più piccoli sulla nostra piattaforma.
Fa tutto parte di un tipico processo di onboarding.
Struttura dei costi e vantaggi di prezzo
Sì, è divertente come molte persone non si rendano conto di quanto le piattaforme cloud addebitino oltre all’economia reale dell’hardware. Essenzialmente, i margini nel business del cloud sono enormi.
Se acquisti semplicemente un server direttamente da un produttore e gestisci un modello di business in cui il server si ripaga in due o tre anni, puoi offrire prezzi diverse volte inferiori rispetto a quelli che i fornitori di cloud tradizionali addebitano. Quello che addebitano è in gran parte il loro marchio, i crediti “gratuiti” che offrono — che alla fine recuperano addebitando di più — e centinaia di servizi aggiuntivi che cercano di spingere, portandoti a pagare ancora di più.
Quello che facciamo è diverso: offriamo un protocollo permissionless gestito da una DAO on-chain. Non prendiamo alcuna commissione. L’economia si basa puramente sul lato del fornitore, con margini ragionevoli — non eccessivi.
Permettiamo ai fornitori di accedere direttamente alla base clienti, quindi non hanno bisogno di gestire le vendite da soli. Ecco perché sono a loro agio a operare con margini più sottili — il loro unico focus è gestire l’hardware.
Prendiamo semplicemente il prezzo più basso che offrono e lo passiamo direttamente al cliente — nessun intermediario, nessun margine aggiunto. Questa è tutta la magia: si tratta puramente dell’economia reale dell’hardware e del calcolo.
Partnership tra Web3 e AI per uno stack decentralizzato
Abbiamo una pipeline piuttosto significativa di aziende nello spazio Web3. Si tratta principalmente di operatori di nodi o aziende che offrono quello che viene chiamato “node-as-a-service”, il che significa che forniscono ai loro utenti finali la possibilità di distribuire nodi per diversi protocolli con un solo clic.
Li supportiamo con infrastrutture di calcolo sotto il cofano — essenzialmente, questi nodi funzionano sui nostri server. Abbiamo diversi nomi in fila nella pipeline. Non sono sicuro di poterli condividere ancora, ma li annunceremo presto.
Supporto ai carichi di lavoro AI/LLM e roadmap GPU
Al momento, siamo concentrati solo su server CPU, che non sono adatti per l’inferenza o l’addestramento AI. Tuttavia, stiamo pianificando di aggiungere presto le GPU.
I nostri fornitori hanno già molte GPU e chiedono costantemente se possono collegarle. Stiamo lavorando per garantire che, quando offriremo le GPU, saranno disponibili a alcuni dei migliori prezzi sul mercato. Una volta che tutto sarà pronto, pubblicheremo le offerte e le renderemo disponibili per gli utenti.
Essenzialmente, per integrare gli LLM e supportare i casi d’uso di inferenza, tutto ciò di cui hai veramente bisogno è l’accesso alla capacità GPU e, idealmente, alcuni livelli UX aggiuntivi per semplificare l’esperienza degli sviluppatori. Questo è già sulla nostra roadmap.
L’AI in generale sta guidando una grande domanda di hardware GPU, ma sta anche aumentando la domanda di hardware CPU — perché compiti come l’elaborazione dei dati, l’etichettatura dei dati e la preparazione dei dataset sono tutti passaggi critici prima di addestrare un modello.
Ci sono anche carichi di lavoro noti come agenti AI, che sono essenzialmente bot che utilizzano modelli AI. Eseguire questi bot richiede principalmente server CPU, mentre chiamare o interagire con i modelli richiede server GPU.
Quindi, hai sempre bisogno sia di server CPU che di server GPU per supportare completamente questi tipi di applicazioni.
Governance DAO e coinvolgimento della community
Abbiamo un modello DAO piuttosto standard. Si basa sul voto on-chain, con determinate soglie in atto. Ad esempio, è necessario avere una quantità delegata di potere di voto per creare una proposta, e una proposta deve ricevere un numero minimo di voti per essere approvata.
L’esecuzione avviene on-chain, ma abbiamo anche una struttura legale off-chain in atto. Un comitato di governance è responsabile della supervisione e della facilitazione del processo di esecuzione.
Seguiamo un modello in cui il comitato di governance è eletto dalla comunità ogni uno o due anni.
Nel complesso, questo modello è piuttosto standard — non c’è nulla di particolarmente nuovo o insolito. È un tipico modello DAO Web3 in cui il voto è ponderato in base ai token — le persone votano in base al numero di token che possiedono.
Decentralizzazione per le imprese: SLA, certificazione e fiat
Gli utenti aziendali richiedono tipicamente tre cose chiave: innanzitutto, un Accordo sul Livello di Servizio (SLA), che garantisce la disponibilità dei servizi.
In secondo luogo, hanno bisogno che i fornitori abbiano certificazioni rilevanti — standard di sicurezza e conformità come SOC 2 o ISO 27001. La maggior parte dei nostri fornitori possiede già queste certificazioni, e attualmente ci stiamo concentrando principalmente su fornitori di hardware che soddisfano questi standard.
In terzo luogo, ovviamente, vogliono pagare in fiat, poiché sono aziende che operano nel mondo Web2, non nel Web3. Stiamo assicurandoci di avere tutti i sistemi necessari in atto per integrare con successo grandi aziende dallo spazio Web2.
Stiamo facendo buoni progressi in quest’area. Quando si tratta di SLA, ci sono diversi modi per affrontarli. Un approccio è stipulare un accordo legale con l’azienda, delineando chiaramente e garantendo la disponibilità del servizio.
Stiamo anche lavorando su un SLA on-chain, che funzionerebbe essenzialmente come un accordo legale. In questo modello, i fornitori si impegnerebbero on-chain a garantire un certo livello di disponibilità del servizio ai clienti.
Tutto sarebbe registrato in uno smart contract, con regole chiare: ad esempio, se un fornitore non riesce a soddisfare un SLA del 99%, sarebbe tenuto a rimborsare una parte del pagamento al cliente.
Per quanto riguarda i pagamenti in fiat, c’è solo tanto che possiamo fare — è una limitazione di cui siamo consapevoli.
Se le aziende vogliono pagare in fiat, lo accettiamo. Convertiamo quindi il fiat in stablecoin e finanziamo i corrispondenti smart contract.
Questo passaggio è inevitabile al momento — non abbiamo ancora trovato un modo per evitarlo. Tuttavia, crediamo che in futuro l’adozione delle stablecoin continuerà a crescere, il che aiuterà a risolvere questo problema, almeno parzialmente.
Inevitabilità del cloud decentralizzato e il futuro di Fluence
Non credo ci sia stato un singolo momento in cui ci siamo resi conto che questo doveva esistere. È stato più la crescita complessiva del movimento Web3 e crypto a renderlo chiaro.
I modelli decentralizzati hanno dimostrato che a volte possono essere più efficienti e possono ridurre significativamente le barriere all’ingresso per molti servizi e tecnologie.
Soprattutto quando combinati con la crescita drammatica della domanda di calcolo guidata dall’AI, crediamo sia essenziale fornire un accesso facile e conveniente alle risorse di calcolo a un pubblico molto più ampio — qualcosa che le piattaforme cloud tradizionali spesso impediscono.
I loro modelli prevedono requisiti KYC, barriere con carte di credito e un obbligo primario di servire gli azionisti. Al contrario, offriamo un’alternativa: un modello di infrastruttura gestito da una DAO e senza permessi.
Considerazioni finali
Invitiamo le persone a unirsi alla nostra prossima beta per server virtuali e stiamo attualmente raccogliendo candidature — puoi iscriverti sul nostro sito web.
Siamo entusiasti di vedere più persone provarlo, condividere il loro feedback e aiutarci a far crescere questa infrastruttura di calcolo aperta e senza permessi per l’umanità.
Dichiarazione di non responsabilità
Tutte le informazioni contenute nel nostro sito web sono pubblicate in buona fede e solo a scopo informativo generale. Qualsiasi azione intrapresa dal lettore in base alle informazioni contenute nel nostro sito web è strettamente a suo rischio e pericolo.
