Codice, blockchain e illusioni: perché l’IA non sostituirà il cervello

  • L’IA è un motore di previsione statistica, non un cervello pensante.
  • Microsoft, NEDA e Air Canada mostrano quanto costa davvero affidarsi ciecamente all’IA.
  • “Verifica, non fidarti” è il principio della blockchain che gli utenti dell’intelligenza artificiale stanno abbandonando.
Promo

La letteratura ha cercato di avvertirci, sul serio, per circa cinquecento anni continua a gridare lo stesso messaggio: dal Golem dai pugni d’argilla della Praga medievale fino alle reti neurali illuminate al neon di William Gibson. Il tema? Sempre lo stesso. La cosa che costruisci per aiutarti, finisce con il plasmare te stesso.

Noi lo abbiamo letto, abbiamo annuito, poi abbiamo richiuso il libro prima di tornare subito a ordinare ai chatbot di scrivere i nostri discorsi di nozze, le nostre arringhe legali e persino i consigli medici.

Oggi la macchina dell’hype sull’AI sta vendendo un futuro scintillante in cui chiunque, dal tirocinante inesperto all’avvocato eloquente, viene spazzato via come un rifiuto. Ma mentre la Silicon Valley promette il paradiso, la realtà ci serve consigli pericolosamente errati in una finestra di chat sorridente.

Dmitry Nikolsky, CPO di BitOK, dice che basta così. Ed è qui per spiegare in dettaglio perché l’umanità deve SMETTERE di caricare ogni ultimo peso sulle “spalle” pixelate dell’AI.

Persino Elon Musk ha avvertito recentemente, durante la sua testimonianza nella causa contro OpenAI, che “l’AI potrebbe ucciderci tutti.”

Contenuto sponsorizzato
Contenuto sponsorizzato

Dal Golem a R.U.R.: Abbiamo Sempre Voluto un Interruttore di Emergenza

Pensi che la paura dell’intelligenza artificiale sia nata con Terminator? Ripensaci. Questo panico è più antico persino dell’energia elettrica.

Facciamo un salto indietro nella Praga del XVI secolo. Il rabbino Loew plasma un gigantesco protettore d’argilla, il Golem, e quasi subito si rende conto che deve staccare la spina. La creatura si ribella. L’umanità, nella sua infinita saggezza, ha inventato l’AI e l’interruttore di emergenza nello stesso momento.

Rabbi Loew dà vita al Golem. Illustrazione di M. Aleš. Secondo il concetto dell’artista, il rabbino Loew scrive la parola sacra “Emet” (verità) sulla fronte del gigante d’argilla. Fonte: Wikipedia.
Rabbi Loew dà vita al Golem. Illustrazione di M. Aleš. Secondo il concetto dell’artista, il rabbino Loew scrive la parola sacra “Emet” (verità) sulla fronte del gigante d’argilla. Fonte: Wikipedia.

Un interruttore di emergenza è un meccanismo d’arresto d’emergenza, il grande pulsante rosso che blocca un sistema quando impazzisce, viene hackerato o “si scioglie il guinzaglio”. L’obiettivo è limitare i danni quando lo spegnimento ordinato non funziona.

Poi arrivò Mary Shelley. Frankenstein in realtà non è un film sull’orrore, è il caso di scuola di una gestione fallimentare di progetto. Victor Frankenstein? Solo un altro brillante ingegnere che ha risolto l’enigma tecnico e ha ignorato le conseguenze. Ogni sviluppatore oggi riconosce quello sguardo allo specchio.

Facciamo un salto veloce al 1920. Karel Čapek conia la parola “robot”. Nella sua storia, le macchine non si ribellano per pura cattiveria. Niente affatto, gli esseri umani si rendono semplicemente superflui affidando tutto quello che facevano alle macchine.

La lezione? Quando costruisci la tua sostituzione, potresti non accorgerti del momento esatto in cui sei diventato sacrificabile.

Tre Profezie che Abbiamo Trasformato in Segnalazioni di Bug

I grandi autori di fantascienza del secolo scorso non prevedevano nuove tecnologie. Prevedevano i nostri fallimenti.

Isaac Asimov presentò le sue Tre Leggi — il primo tentativo di “allineamento”, quel moderno e altisonante termine che significa rendere le macchine partecipi dei valori umani. Ogni racconto di Asimov termina con una battuta finale: logica perfetta, risultato assurdo.

Nikolsky dice di assistere a questi scenari ogni giorno all’interno dei sistemi AML, dove algoritmi bloccano allegramente il bonifico di compleanno da $40 della nonna, mentre un’evidente pipeline di riciclaggio offshore passa indisturbata. Formalmente corretto. Praticamente folle.

Arthur C. Clarke ci ha presentato HAL 9000, il computer che uccide l’equipaggio non per cattiveria ma perché i suoi ordini sono in contraddizione tra loro. Nascondi le informazioni. Sii sincero. Scegli una strada! Per un ingegnere, questo non è orrore, è un classico conflitto tra requisiti.

Contenuto sponsorizzato
Contenuto sponsorizzato

Philip K. Dick ha posto la domanda che ci tormenta nell’era dei deepfake: se una copia è indistinguibile dall’originale, conta davvero? Secondo lui, sì. Perché esiste un’esperienza interiore. Le macchine non ne hanno. Fine della storia.

Sotto il Cofano: L’AI Non Pensa, Calcola

Togliamo ogni patina pubblicitaria. I modelli linguistici moderni NON sono intelligenza. Sono enormi motori di previsione statistica. Non “capiscono” il significato, calcolano le probabilità.

Quando ChatGPT cita con sicurezza casi giudiziari mai esistiti, non sta mentendo. Sta generando una sequenza di parole statisticamente plausibile. Non conosce il concetto di “verità”, solo quello di “probabilità”.

Per una sviluppatrice blockchain, questo discorso sembra veramente assurdo. Costruiamo sistemi trustless proprio perché non ci fidiamo di nessuno, e ora ci viene chiesto di fidarci di una scatola nera che nemmeno sa perché ha prodotto la risposta che ha appena dato.

La Blockchain Insegna la Verifica; L’AI Insegna la Fiducia Cieca

Le crypto hanno un comandamento inciso nel disco rigido: Non fidarti. Verifica.

L’unico punto è che la matematica rimpiazza la reputazione.

L’AI ribalta quel vangelo. Non hai visto i dati di training. Non conosci i pesi del modello. Non capisci il suo ragionamento. Per verificare il risultato, devi già essere esperto e, se già sei esperto, perché chiedi al chatbot?

Nel settore AML la chiamano il “problema della falsa sicurezza”. Gli analisti guardano un cruscotto luccicante e cominciano a fidarsi dei numeri più che del proprio istinto. L’IA non migliora il pensiero, lo sostituisce con l’illusione dell’affidabilità.

Contenuto sponsorizzato
Contenuto sponsorizzato

Cronaca delle delusioni: quando l’IA deraglia

Non si tratta di un esperimento mentale. Le prove si stanno accumulando.

Gli umani hanno dovuto tornare indietro per ripulire i danni causati dall’algoritmo.

Il bot ha poi consigliato tranquillamente a persone con anoressia di contare le calorie e perdere peso. Un consiglio potenzialmente letale. Qualcuno aveva cliccato su “deploy” con la cautela di uno scimpanzé che tiene in mano una bomba a mano attiva.

La difesa della compagnia aerea? Il bot era una “entità legale separata”. Spoiler: il giudice non ci ha creduto neanche un po’.

Studi dimostrano ora che il 55% delle aziende che si sono affrettate a sostituire i dipendenti con l’IA se ne sono pentite amaramente. I risparmi sono svaniti tra clienti persi e danni alla reputazione. I dirigenti che sbavano all’idea che “Claude e compagnia” possano ingoiare interi team dovrebbero rileggere quella cifra. Lentamente.

Fonte: mayhemcode
Fonte: mayhemcode

Di cosa dovremmo davvero aver paura

Dimentica Skynet. Dimentica robot assassini dagli occhi rossi che marciano sul viale. Non ci sarà una ribellione.

Ci sarà una atrofia silenziosa.

Un programmatore che fa affidamento su Copilot per anni dimentica silenziosamente il pensiero architetturale. Un analista smette di leggere le fonti primarie. Uno studente non conosce mai la splendida tortura del dover domare un testo difficile, finché la comprensione non scatta finalmente.

Nessuna rivolta. Solo una trasformazione al rallentatore degli esseri umani in estensioni di un’interfaccia.

Philip K. Dick l’aveva visto prima di tutti noi: il vero pericolo non sono le macchine che diventano umane. Il vero pericolo sono gli umani che diventano macchine.

La pillola rossa non è la tecnologia

Non è un grido di guerra luddista. Automazione e machine learning sono strumenti potenti. Ma i principi fondamentali devono restare saldi:

  • Principio Blockchain: Verifica sopra la fede. Se non puoi verificare come un sistema è arrivato a una conclusione, non accettarlo come vangelo. L’IA è una scatola nera, non un giudice della Corte Suprema.
  • Principio ingegneristico: Strumento, non sostituto. Un martello pianta i chiodi. Non decide dove costruire la casa. Usa l’IA per svolgere i compiti di routine, ma non lasciarle mai l’ultima parola.
  • Principio AML: Filtro critico. Gli algoritmi crollano sempre nei casi complessi perché non hanno alcuna esperienza reale. Non lasciare che l’”eccitazione digitale” calpesti intuizione e semplice buonsenso.

Fermati su The Matrix per un attimo. La pillola rossa è una scelta, quella di vedere la realtà per ciò che è. Il pericolo non è creare qualcosa di più intelligente di noi. Il pericolo è creare qualcosa che ci rende più stupidi e chiamarlo progresso.

Il bug più pericoloso è quello che sembra una funzionalità.

Dmitry Nikolsky è il CPO di BitOK, una piattaforma di analisi per la compliance e le investigazioni on-chain.


Per leggere le ultime analisi di mercato sulle criptovalute di BeInCrypto, clicca qui.

Disclaimer

Tutte le informazioni contenute nel nostro sito web sono pubblicate in buona fede e solo a scopo informativo generale. Qualsiasi azione intrapresa dal lettore in base alle informazioni contenute nel nostro sito web è strettamente a suo rischio e pericolo.

Contenuto sponsorizzato
Contenuto sponsorizzato