L’azienda di intelligenza artificiale OpenAI ha presentato il suo ultimo prodotto, un modello text-to-video chiamato Sora. Tuttavia, i progressi dell’intelligenza artificiale sono stati più che altro carburante per i truffatori e, con il fiorire dei mercati delle criptovalute, questo potrebbe essere utilizzato per truffare le persone.
Secondo l’annuncio del 15 febbraio, Sora è in grado di creare video fino a 60 secondi con scene altamente dettagliate, movimenti complessi della telecamera e personaggi multipli con emozioni vibranti.
Un nuovo strumento di intelligenza artificiale per la cassetta degli attrezzi dei truffatori di criptovalute?
L’azienda ha dichiarato di voler “adottare diverse importanti misure di sicurezza” prima di rendere Sora disponibile nei suoi prodotti.
“Stiamo collaborando con i red teamer, esperti di settori come la disinformazione, i contenuti di odio e i pregiudizi, che stanno testando il modello in modo contraddittorio”.
L’azienda ha mostrato diversi video creati a partire da messaggi di testo che forniscono una breve descrizione della scena desiderata.
Il modello comprende ciò che l’utente ha chiesto nel messaggio e anche come queste cose esistono nel mondo fisico.
OpenAI ha anche affermato che il modello ha una profonda comprensione del linguaggio. Questo gli permette di interpretare accuratamente i messaggi e di,
“generare personaggi avvincenti che esprimono emozioni vibranti”.
Tuttavia, l’azienda ha messo in guardia:
“Nonostante le ricerche e i test approfonditi, non possiamo prevedere tutti i modi in cui le persone utilizzeranno la nostra tecnologia, né tutti i modi in cui le persone ne abuseranno”.
Tuttavia, è probabile che la nuova tecnologia venga abusata dai truffatori di criptovalute. Potrebbe consentire ad attori malintenzionati di creare deepfake che impersonano persone e aziende reali per promuovere progetti di criptovaluta fraudolenti.
I truffatori potrebbero anche utilizzare Sora di OpenAI per generare falsi endorsement di celebrità di progetti web3 e cripto. I video e gli audio sintetici già mostrati erano molto convincenti. “Wow. È davvero incredibile!” Il podcaster Lex Fridman ha dichiarato ai suoi 3,3 milioni di follower X.
Inoltre, il text-to-video generato dall’intelligenza artificiale potrebbe automatizzare la creazione di grandi volumi di video truffa a basso costo. Questi potrebbero essere utilizzati per promuovere gli schemi di “pump and dump” di criptovalute sulle piattaforme dei social media, che già fanno ben poco per prevenire le truffe.
I malintenzionati potrebbero sfruttare la potenza dell’IA text-to-video, come Sora, per creare contenuti manipolativi a basso costo. Questi potrebbero poi essere ottimizzati per diventare virali sulle piattaforme sociali e consentire alle truffe di criptovalute di scalare rapidamente se non vengono controllate.
Ultime notizie sull’intelligenza artificiale
Il settore dell’intelligenza artificiale è stato molto impegnato questa settimana, oltre all’annuncio rivoluzionario di Sora. OpenAI ha anche dotato ChatGPT di una “memoria”, consentendogli di ricordare le richieste in modo che gli utenti non debbano ripeterle.
Google ha rivelato un aggiornamento del suo modello di intelligenza artificiale, Gemini. La versione 1.5 presenta un’innovativa finestra contestuale da 1 milione di token. Ciò consente al modello linguistico di grandi dimensioni di elaborare un numero di dati notevolmente superiore a quello dei suoi concorrenti.
Inoltre, Meta ha rilasciato V-JEPA. Questo nuovo modello di apprendimento consente all’intelligenza artificiale di comprendere e prevedere ciò che accade in un video, anche con informazioni limitate.
Anche Slack ha integrato nuove funzionalità di intelligenza artificiale generativa nella piattaforma di lavoro. Tra queste figurano la ricerca avanzata, i riassunti dei canali, i riassunti delle discussioni e altro ancora.
Dichiarazione di non responsabilità
Tutte le informazioni contenute nel nostro sito web sono pubblicate in buona fede e solo a scopo informativo generale. Qualsiasi azione intrapresa dal lettore in base alle informazioni contenute nel nostro sito web è strettamente a suo rischio e pericolo.