IMMAGINE REALIZZATA CON IA MIDJOURNEY

Secondo una ricerca sviluppata da alcuni ricercatori del Massachusetts Institute of Technology e della Cornell University pubblicata su Science, le persone che sostenevano teorie del complotto sono diventate più inclini a riconsiderare le proprie opinioni dopo aver avuto un dialogo con un modello linguistico avanzato di IA, come GPT-4 Turbo di OpenAI. Questa apertura mentale si è manifestata anche tra i soggetti più ostinati e si è protratta nel tempo, con un effetto che è durato almeno due mesi dopo l’interazione con l’IA.

Il risultato è sorprendente poiché contraddice l’idea diffusa che le persone profondamente coinvolte in teorie del complotto siano irrimediabilmente chiuse al confronto con dati e prove. La ricerca ha coinvolto quasi 2.200 partecipanti che avevano manifestato credenze cospirative su argomenti come gli attacchi terroristici dell’11 settembre 2001, la frode elettorale nelle elezioni presidenziali statunitensi del 2020 e la pandemia di Covid-19, considerata orchestrata da alcuni.

Il chatbot ha fornito prove e argomentazioni per contrastare queste convinzioni, riducendo in media del 20% il livello di certezza autovalutata dei partecipanti rispetto alle loro teorie cospirative. Questo effetto è stato misurato attraverso sondaggi condotti sia subito dopo l’interazione che a distanza di due mesi, dimostrando la persistenza del cambiamento.

Nell’introduzione gli autori evidenziano che, secondo le principali teorie psicologiche, le credenze cospirazioniste non derivano dalla mancanza di informazioni, ma rispondono a bisogni o motivazioni psicologiche profonde. Di conseguenza, convincere i sostenitori di teorie cospirative a rivedere le proprie convinzioni attraverso fatti e prove contrarie risulta estremamente difficile, poiché queste credenze soddisfano esigenze personali e psichiche radicate.

Gli autori, pertanto, hanno ipotizzato che gli interventi basati su informazioni fattuali e correttive possano sembrare inefficaci semplicemente perché mancano di sufficiente profondità e personalizzazione. Per testare questa ipotesi, sono stati utilizzati i grandi modelli linguistici (LLM) di IA generativa, che hanno la capacità di generare argomentazioni su misura. Gli LLM possono quindi confutare direttamente prove specifiche che ogni individuo cita a supporto delle proprie convinzioni cospirative.

Secondo i ricercatori, la capacità dell’IA di generare controprove specifiche e mirate per contrastare complesse teorie cospirative rappresenta un’enorme potenzialità per la lotta contro la disinformazione su larga scala. Questo metodo potrebbe fornire una base per lo sviluppo di interventi educativi su ampia scala, mirati a correggere credenze errate in modo personalizzato.

David Rand, uno dei ricercatori dello studio e professore alla Sloan School of Management del Massachusetts Institute of Technology (MIT), ha sottolineato che lo studio “dipinge un quadro più luminoso della mente umana” di quanto molti si aspettassero. Rand ha osservato che “anche molti teorici della cospirazione rispondono a fatti e prove accurate”, a patto che vengano affrontati direttamente in modo empatico e rispettoso.

Nonostante i risultati incoraggianti, la ricerca non ignora i limiti e le sfide che emergono dall’uso dell’IA in questo contesto. Un primo ostacolo è rappresentato dalla difficoltà di far sì che le persone con convinzioni cospirative radicate si impegnino effettivamente a interagire con un chatbot. La sfiducia verso le istituzioni scientifiche o tecnologiche è spesso molto alta tra chi sostiene queste teorie, e potrebbe essere difficile convincerli a utilizzare uno strumento che considerano parte del sistema che criticano.