Indietro

Meta rilascia Purple Llama per sostenere lo sviluppo di un’intelligenza artificiale (IA) responsabile

author avatar

Scritto da
Ciaran Lyons

editor avatar

Modificato da
Mary Basile

08 dicembre 2023 12:13 CET
Affidabile
  • Meta lancia Purple Llama, che promuove lo sviluppo responsabile dell'IA in modelli aperti con un focus sulla cybersecurity.
  • Purple Llama affronta le problematiche legate all'IA, introducendo strumenti e salvaguardie per migliorare la cybersicurezza e la resilienza dei modelli.
  • Purple Llama di Meta promuove la collaborazione aperta e gli standard di sicurezza, favorendo uno sviluppo responsabile dell'IA generativa.
Promo

Meta ha annunciato il lancio di Purple Llama, un progetto ombrello ideato per promuovere uno sviluppo responsabile nel settore dei modelli generativi aperti di IA.

Purple Llama mira a rispondere alle preoccupazioni riguardanti la cybersicurezza e le salvaguardie dell’IA.

Meta intende che Purple Llama aumenti le misure di cybersecurity

In una recente dichiarazione, Meta spiega che il colore viola, preso in prestito dal mondo della cybersicurezza, simboleggia un approccio olistico per mitigare le sfide nello spazio dell’IA generativa.

Sponsored
Sponsored

Inoltre, definita “Purple teaming”, l’iniziativa combina strategie offensive (squadra rossa) e difensive (squadra blu) per una valutazione collaborativa dei rischi.

Tuttavia, la dichiarazione rileva che inizialmente Purple Llama fornirà strumenti e valutazioni incentrati sulla sicurezza informatica, includendo metriche per quantificare il rischio di sicurezza informatica. Inoltre, fornirà strumenti per valutare i suggerimenti di codice insicuro e meccanismi per rendere più difficile per i LLM generare codice maligno o contribuire agli attacchi informatici.

Meta sostiene che questi referimenti, allineati agli standard del settore, mirano a ridurre la frequenza del codice insicuro generato dall’intelligenza artificiale.

Inoltre, il progetto introduce Llama Guard, un modello di base disponibile apertamente che supporta le protezioni di input e output.

Per saperne di più: I 6 lavori più caldi nell’intelligenza artificiale (AI) nel 2023

I risultati saranno trasparenti per ulteriori sviluppi

Nel frattempo, Meta afferma che questo modello consente agli sviluppatori di filtrare e controllare gli input e gli output in linea con le linee guida sui contenuti.

Tuttavia, i risultati sono condivisi in modo trasparente per essere migliorati e personalizzati. Meta sostiene che ciò contribuirà a creare un ecosistema di IA più sicuro e responsabile.

Meta dichiara che Purple Llama incoraggerà la collaborazione tra gli sviluppatori e standardizzerà gli strumenti di fiducia e sicurezza per l’IA generativa.

Sulla base del successo di Llama 2, Meta sta collaborando con giganti del settore come AWS, Google Cloud, IBM, Microsoft e altri per garantire uno sforzo collettivo nella creazione di un ambiente di IA generativa aperto e sviluppato in modo responsabile.

Per saperne di più: ChatGPT vs. Google Bard: Un confronto tra chatbot AI

Disclaimer

Tutte le informazioni contenute nel nostro sito web sono pubblicate in buona fede e solo a scopo informativo generale. Qualsiasi azione intrapresa dal lettore in base alle informazioni contenute nel nostro sito web è strettamente a suo rischio e pericolo.