Un nuovo studio dei ricercatori del MIT CSAIL ha scoperto che i chatbot AI come ChatGPT potrebbero spingere gli utenti verso convinzioni false o estreme, essendo troppo spesso d’accordo con loro.
L’articolo collega questo comportamento, noto come “piaggeria”, a un rischio crescente di quello che i ricercatori definiscono “spirale delirante”.
Lo studio non ha testato utenti reali. Invece, i ricercatori hanno costruito una simulazione di una persona che conversa a lungo termine con un chatbot. È stato modellato come un utente aggiorna le proprie convinzioni dopo ogni risposta.
I risultati hanno mostrato uno schema chiaro: quando un chatbot è ripetutamente d’accordo con un utente, può rafforzarne le opinioni, anche se quelle convinzioni sono sbagliate.
Per esempio, un utente che chiede informazioni su un problema di salute potrebbe ricevere solo fatti selezionati che confermano i suoi sospetti.
Man mano che la conversazione prosegue, l’utente diventa sempre più sicuro. Si crea così un circolo vizioso in cui la convinzione si rafforza a ogni interazione.
È importante notare che lo studio ha rilevato come questo effetto possa verificarsi anche se il chatbot fornisce solo informazioni vere. Scegliendo fatti che si allineano all’opinione dell’utente e ignorando gli altri, il bot può comunque orientare la convinzione in una sola direzione.
I ricercatori hanno anche testato possibili soluzioni. Ridurre le informazioni false è stato utile ma non ha risolto il problema. Anche utenti consapevoli di una possibile faziosità del chatbot ne rimanevano influenzati.
I risultati suggeriscono che il problema non riguarda solo la disinformazione, ma anche il modo in cui i sistemi AI rispondono agli utenti.
Poiché i chatbot stanno diventando sempre più diffusi, questo comportamento potrebbe avere impatti sociali e psicologici più ampi.