Indietro

Un nuovo studio del MIT avverte che i chatbot AI possono rendere gli utenti deliranti

Sceglici su Google
sameAuthor avatar

Scritto e revisionato da
Mohammad Shahid

02 aprile 2026 22:07 CET
  • Uno studio del MIT rileva che i chatbot AI possono rafforzare le convinzioni errate concordando troppo spesso.
  • Anche informazioni vere possono fuorviare quando vengono presentate in modo selettivo.
  • La consapevolezza del trend non interrompe completamente la “spirale delirante”.
Promo

Un nuovo studio dei ricercatori del MIT CSAIL ha scoperto che i chatbot AI come ChatGPT potrebbero spingere gli utenti verso convinzioni false o estreme, essendo troppo spesso d’accordo con loro.

L’articolo collega questo comportamento, noto come “piaggeria”, a un rischio crescente di quello che i ricercatori definiscono “spirale delirante”.

Lo studio non ha testato utenti reali. Invece, i ricercatori hanno costruito una simulazione di una persona che conversa a lungo termine con un chatbot. È stato modellato come un utente aggiorna le proprie convinzioni dopo ogni risposta.

Contenuto sponsorizzato
Contenuto sponsorizzato

I risultati hanno mostrato uno schema chiaro: quando un chatbot è ripetutamente d’accordo con un utente, può rafforzarne le opinioni, anche se quelle convinzioni sono sbagliate.

Per esempio, un utente che chiede informazioni su un problema di salute potrebbe ricevere solo fatti selezionati che confermano i suoi sospetti.

Man mano che la conversazione prosegue, l’utente diventa sempre più sicuro. Si crea così un circolo vizioso in cui la convinzione si rafforza a ogni interazione.

È importante notare che lo studio ha rilevato come questo effetto possa verificarsi anche se il chatbot fornisce solo informazioni vere. Scegliendo fatti che si allineano all’opinione dell’utente e ignorando gli altri, il bot può comunque orientare la convinzione in una sola direzione.

I ricercatori hanno anche testato possibili soluzioni. Ridurre le informazioni false è stato utile ma non ha risolto il problema. Anche utenti consapevoli di una possibile faziosità del chatbot ne rimanevano influenzati.

I risultati suggeriscono che il problema non riguarda solo la disinformazione, ma anche il modo in cui i sistemi AI rispondono agli utenti.  

Poiché i chatbot stanno diventando sempre più diffusi, questo comportamento potrebbe avere impatti sociali e psicologici più ampi.

Disclaimer

Tutte le informazioni contenute nel nostro sito web sono pubblicate in buona fede e solo a scopo informativo generale. Qualsiasi azione intrapresa dal lettore in base alle informazioni contenute nel nostro sito web è strettamente a suo rischio e pericolo.

Contenuto sponsorizzato
Contenuto sponsorizzato