Trusted

I Paesi del G7 spingono il “Codice di condotta” sull’intelligenza artificiale per prevenire l’usoimproprio della tecnologia

3 mins
Aggiornato da Ali Martinez

In breve

  • I Paesi del G7 stabiliscono un "Codice di condotta" volontario per le aziende che innovano i sistemi avanzati di intelligenza artificiale.
  • OpenAI forma il team Preparedness per gestire i rischi posti dai modelli di IA, facendo eco all'appello globale per la sicurezza.
  • Il "Codice di condotta" e il team di OpenAI rappresentano dei passi avanti verso lo sfruttamento responsabile del potere dell'IA.
  • promo


Il Gruppo dei Sette (G7) è pronto a stabilire un “Codice di condotta” volontario per le aziende che innovano nel campo dei sistemi avanzati di intelligenza artificiale (AI). Questa iniziativa, scaturita dal “processo di Hiroshima sull’IA”, cerca di affrontare il potenziale usoimproprio e i rischi associati a questa tecnologia trasformativa.

Il G7, composto da Canada, Francia, Germania, Italia, Giappone, Gran Bretagna e Stati Uniti, insieme all’Unione Europea, ha avviato questo processo per creare un precedente per l’amministrazione dell’IA.

Il G7 lancia il Codice di condotta globale per l’IA

Tra le crescenti preoccupazioni per la privacy e i rischi per la sicurezza, il codice in 11 punti è un faro di speranza. Secondo un documento del G7, il codice di condotta,

“mira a promuovere un’IA sicura, protetta e affidabile in tutto il mondo e fornirà una guida volontaria per le azioni delle organizzazioni che sviluppano i sistemi di IA più avanzati”.

Il codice incoraggia le aziende a identificare, valutare e mitigare i rischi durante l’intero ciclo di vita dell’IA. Inoltre, raccomanda di riportare pubblicamente le capacità, le limitazioni e l’utilizzo dell’IA, sottolineando i solidi controlli di sicurezza.

Per saperne di più: I 6 lavori più caldi nel campo dell’intelligenza artificiale (AI) nel 2023

Il capo della Commissione europea per il digitale Vera Jourova, in occasione di un forum sull’amministrazione di Internet, ha dichiarato,

“Un Codice di condotta è una base solida per garantire la sicurezza e fungerà da ponte fino all’introduzione di una regolamentazione”.

Preoccupazioni etiche riguardo ai sistemi di intelligenza artificiale. Fonte: Stato dell’IA nelle imprese

OpenAI si unisce alla causa

Anche OpenAI, la società madre di ChatGPT, ha formato un team di preparazione per gestire i rischi posti dai modelli di IA. Guidato da Aleksander Madry, il team si occuperà di rischi quali la persuasione personalizzata, le minacce alla sicurezza informatica e la propagazione della disinformazione.

Questa iniziativa è il contributo di OpenAI all’imminente summit britannico sull’IA, che fa eco alla richiesta globale di sicurezza e trasparenza nello sviluppo dell’IA.

L’amministrazione britannica definisce l’IA di frontiera come,

“Modelli di IA di uso generale altamente capaci, in grado di svolgere un’ampia varietà di compiti e di eguagliare o superare le capacità presenti nei modelli più avanzati di oggi”.

Il team Preparedness di OpenAI si concentrerà sulla gestione dei rischi, rafforzando ulteriormente la necessità di un “Codice di condotta” globale per l’IA.

Con la continua evoluzione dell’IA, la posizione proattiva del G7 e l’impegno di OpenAI nella mitigazione dei rischi sono risposte tempestive. Il “Codice di condotta” volontario e la formazione di un gruppo di preparazione dedicato rappresentano passi significativi verso lo sfruttamento responsabile del potere dell’IA. L’obiettivo è garantire che i suoi benefici siano massimizzati e che i rischi potenziali siano gestiti in modo efficace.

Dichiarazione di non responsabilità

In conformità alle linee guida del Trust Project, BeInCrypto si impegna a riportare notizie imparziali e trasparenti. Questo articolo mira a fornire informazioni accurate e tempestive. Tuttavia, si consiglia ai lettori di verificare i fatti in modo indipendente e di consultare un professionista prima di prendere qualsiasi decisione basata su questi contenuti.
Questo articolo è stato inizialmente compilato da un’intelligenza artificiale avanzata, progettata per estrarre, analizzare e organizzare le informazioni da un’ampia gamma di fonti. Opera senza credenze personali, emozioni o nonobiettivi, fornendo contenuti incentrati sui dati. Per garantire la pertinenza, l’accuratezza e l’aderenza agli standard editoriali di BeInCrypto, un redattore umano ha meticolosamente rivisto, modificato e approvato l’articolo per la pubblicazione.

Top piattaforme di crypto in Italia | Novembre 2024
Top piattaforme di crypto in Italia | Novembre 2024
Top piattaforme di crypto in Italia | Novembre 2024

Dichiarazione di non responsabilità

Tutte le informazioni contenute nel nostro sito web sono pubblicate in buona fede e solo a scopo informativo generale. Qualsiasi azione intrapresa dal lettore in base alle informazioni contenute nel nostro sito web è strettamente a suo rischio e pericolo.

images-e1706008039676.jpeg
Advertorial è il nome universale dell'autore per tutti i contenuti sponsorizzati forniti dai partner di BeInCrypto. Pertanto, questi articoli, creati da terzi a scopo promozionale, potrebbero non essere in linea con le opinioni o i pareri di BeInCrypto. Sebbene ci sforziamo di verificare la credibilità dei progetti presentati, questi articoli sono destinati alla pubblicità e non devono essere considerati come consigli finanziari. I lettori sono invitati a condurre ricerche indipendenti...
Leggi la biografia completa