L’Autorità di vigilanza polacca (UODO), il regolatore dei dati della Polonia, ha dichiarato che sta valutando la possibilità di avviare un’indagine sul produttore di ChatGPT OpenAI. La dichiarazione arriva dopo che un cittadino ha affermato che lo strumento ha generato informazioni false su di lui, sollevando domande su come l’algoritmo di OpenAI elabora i dati personali.
Il querelante sostiene che ChatGPT ha utilizzato 2021 dati ottenuti al di fuori delle leggi sulla privacy dell’UE per generare un risultato non veritiero. Inoltre, non ha fornito la fonte dei dati, il che, secondo il cittadino, richiede un’ispezione più approfondita dei metodi di elaborazione dei dati di OpenAI.
L’autorità di regolamentazione polacca porterà avanti l’inchiesta su OpenAI
Inoltre, le domande rivolte a OpenAI non hanno fornito risposte soddisfacenti. In risposta al reclamo, il vicepresidente dell’UODO, Jakub Groszowski, ha affermato il diritto di ricorso del querelante e ha sottolineato il dovere degli organi di controllo della privacy.
“Lo sviluppo delle nuove tecnologie deve avvenire nel rispetto dei diritti delle persone fisiche derivanti, tra l’altro, dal [Regolamento generale sulla protezione dei dati]. Il compito delle autorità europee per la protezione dei dati personali è quello di proteggere i cittadini europei dagli effetti negativi delle tecnologie di elaborazione delle informazioni “.
Ha aggiunto che il reclamo solleva dubbi sulla conformità di OpenAI al principio fondamentale del GDPR della “privacy by design”. In risposta, UODO cercherà di chiarire le politiche sui dati di OpenAI, ha confermato il presidente di UODO.
“Il caso riguarda la violazione di molte disposizioni sulla protezione dei dati personali, motivo per cui chiederemo a OpenAI una risposta a una serie di domande per poter svolgere in modo approfondito il procedimento amministrativo”.
L’UE ha incorporato le tutele dell’intelligenza artificiale (AI) nella sua legge GDPR nel maggio 2018.
Scopri qui come le identità decentralizzate possono salvaguardare le informazioni personali.
All’epoca, il requisito che impone alle aziende di spiegare come utilizzano le informazioni personali nell’ambito dell’intelligenza artificiale è stato criticato. I primi commentatori hanno suggerito che era quasi impossibile per le aziende sapere se fossero pienamente conformi.
Per saperne di più, leggete qui: le piattaforme di social media decentralizzate sono meno dipendenti dai vostri dati rispetto alle rivali centralizzate.
Inoltre, si riteneva che le leggi fossero un freno all’innovazione. All’epoca, il 74% degli intervistati in un sondaggio tedesco sull’industria digitale affermava che le leggi sulla privacy erano il principale ostacolo allo sviluppo di nuove tecnologie.
La nuova legislazione può porre rimedio alla cattiva gestione dei dati personali
Ma ci sono alcune questioni fondamentali relative al processo decisionale automatizzato che sono state portate avanti dai precedenti modelli di IA.
I primi modelli di apprendimento automatico, gli elementi costitutivi dei modelli a linguaggio esteso, sono stati criticati per la loro tendenza a interpretare i dati personali in modo da rafforzare i mali della società. Ad esempio, un modello potrebbe perpetuare i pregiudizi nelle assunzioni, sottovalutando i candidati di sesso femminile per i lavori di programmazione informatica.
La recente pandemia di COVID-19 ha spinto molti governi ad accelerare o a bypassare del tutto la due diligence a favore della velocità. Molte aziende hanno sfruttato la pandemia per spingere l’IA, l’automazione e gli strumenti di sorveglianza a favore del bene comune.
Un sistema creato dal dipartimento degli esami Ofqual ha tentato di prevenire algoritmicamente l’inflazione dei risultati scolastici britannici. Invece, discriminava i veri migliori risultati e i bambini provenienti da contesti meno avvantaggiati.
Nel corso dell’anno, il primo ministro britannico Rishi Sunak ospiterà un vertice di dirigenti e ricercatori dell’IA per decidere il futuro dell’IA. Il Parlamento europeo potrebbe approvare la legge sull’intelligenza artificiale dell’UE entro la fine dell’anno.
Avete qualcosa da dire sull’intenzione di UODO di avviare un’indagine sulla gestione dei dati personali da parte di OpenAI nel suo algoritmo o altro? Scriveteci o partecipate alla discussione sul nostro canale Telegram. Potete trovarci anche su TikTok, Facebook o X (Twitter).
Dichiarazione di non responsabilità
Tutte le informazioni contenute nel nostro sito web sono pubblicate in buona fede e solo a scopo informativo generale. Qualsiasi azione intrapresa dal lettore in base alle informazioni contenute nel nostro sito web è strettamente a suo rischio e pericolo.