Il mondo in cui viviamo è estremamente complesso e molti dei suoi avvenimenti, pensiamo ad una pandemia o ad un attentato, richiedono spesso  competenze multidisciplinari, paziente approfondimento e una mente aperta affinché possano essere compresi. Avvenimenti come questi fanno paura, mettono in dubbio le nostre certezze e innescano un bisogno di risposte. In questo contesto, non stupisce che le persone spesso tendano ad avere convinzioni errate o persino diametralmente opposte alle evidenze e al consenso scientifico sui più svariati argomenti. Quando queste convinzioni fanno leva sulle nostre ideologie più radicate, sui principi che definiscono la nostra identità o sulle nostre paure, possono diventare estremamente resistenti alle evidenze contrarie. In questo contesto non è strano che nascano le cd teorie cospirative. La scelta delle proprie opinioni in base alle  ideologie e non in base alle evidenze è ciò che si chiama, secondo lo psicologo Leon Festiger, motivated reasoning o dissonanza cognitiva in italiano[1]. Per capire di cosa stiamo parlando è utile fare un paio di esempi.

 

Negli anni 20 in Unione Sovietica, durante il periodo staliniano, si fece notare un personaggio di nome Trofim Lysenko[2]. Egli non aveva particolari background scientifici, ma nonostante ciò egli proponeva tecniche agricole che si rifacevano al lamarckismo, vale a dire si basavano sull’ereditarietà dei caratteri acquisiti. Lamarckismo che, come sappiamo, era già stato soppiantato dall’evoluzione tramite selezione naturale. Secondo Lysenko, tramite particolari trattamenti era possibile fare in modo che i semi potessero generare piante con determinate proprietà. Era una ipotesi priva di qualsivoglia fondamento, basata su un assunto superato, ma a Stalin piaceva parecchio! Perchè? Per motivazioni politiche, in quanto se l’ereditarietà dei caratteri acquisiti[3] era vera allora era possibile creare generazione dopo generazione il perfetto prototipo dell’uomo sovietico. Per qualche decennio l’evoluzione darwiniana divenne una “perversione borghese” .

 

Con i vaccini è possibile fare un esempio più recente. In seguito all’epidemia di morbillo nel 2014 a Disneyland in California, lo stato passò una legge, la SB-277[4], per imporre una stretta sulle esenzioni vaccinali per motivi personali o religiosi[5]. Fu in quel momento che i movimenti antivaccinisti passarono dall’attaccare la sicurezza delle vaccinazioni all’identificarle come strumento di tirannia, finalizzato alla soppressione della libertà di cura dei figli da parte dei genitori. Diversi medici hanno testimoniato come da quel momento sia diventato più difficile parlare di vaccinazioni con taluni genitori, in particolare i più ossessionati dall’intervento dello stato nella sfera privata. Questo cambio di strategia serviva ai movimenti antivaccinisti per continuare ad esistere; attaccare le vaccinazioni non funzionava più, vista l’enorme mole di evidenze scientifiche che ne dimostrano la sicurezza. La chiave di volta era quindi trasformare l’argomento in questione politica.

 

Parlando con conoscenti, amici o parenti, avrete sicuramente notato come in certi casi le posizioni antiscientifiche di queste persone siano granitiche e di quanto sia difficile far loro cambiare idea, indipendentemente dalle prove che portiamo. Questo perché talune convinzioni che abbiamo non sono frutto di una scrupolosa analisi delle prove, bensì della loro coerenza con le nostre ideologie, con le nostre convinzioni personali, i nostri pregiudizi e con ciò che ci definisce. È dura cambiare idea di fronte a qualcosa che potrebbe contraddire ciò in cui tanto abbiamo investito e che potrebbe essere visto come una minaccia al nostro stile di vita. Per esempio così potrebbero essere viste le misure contro il cambiamento climatico: ”oddio…vogliono toglierci il riscaldamento in inverno per non inquinare”. Cosa non vera ovviamente. Un altro modo in cui può manifestarsi la dissonanza cognitiva è quando una nostra previsione si rivela sbagliata: pensate ad un membro di una setta che, dopo averne fatto parte per anni, è costretto a notare che la tanto temuta fine del mondo non è arrivata. Al che si presenta un dilemma: ammettere semplicementi di aver sbagliato ed andare avanti o perseverare nell’inganno? La prima scelta è quella più ovvia, ma è doloroso ammettere di aver buttato anni di vita dietro ad una fesseria, ecco quindi che si pensa: ”la fine del mondo non è arrivata grazie a noi e al nostro movimento”. Tra gli psicologi è opinione comune insomma che far cambiare idea a chi è portatore di opinioni così radicate sia pressoché impossibile, una causa persa. Tuttavia non tutto è perduto ed in nostro aiuto potrebbe accorrere l’intelligenza artificiale.

 

Uno studio pubblicato di recente su Science[6] ha mostrato come le evidenze possano essere in grado di far cambiare idea alle persone in modo duraturo. Lo studio si basa sull’assunto che forse le evidenze scientifiche non risultano persuasive in quanto carenti in personalizzazione e profondità. Le persone credono in un vasto ventaglio di teorie cospirative, ed ogni persona lo fa in base a quelle che egli ritiene delle prove. Spesso i debunking potrebbero risultare inefficaci perché incapaci di rispondere alle specifiche evidenze accettate dal singolo.  Per testare questa ipotesi i ricercatori si sono serviti di una Large Language Models (LLMs), una forma di intelligenza artificiale capace di accedere ad una vasta mole di informazioni e al contempo di generare risposte personalizzate. Per testare questa ipotesi sono stati condotti due studi con design leggermente differenti.

 

Nel primo, 1055 partecipanti inizialmente hanno valutato il loro livello di convinzione rispetto a 15 popolari teorie cospirative estratte dal BCTI (Belief in Conspiracy Theories Inventory, una scala che viene utilizzata per misurare il grado di fiducia nelle teorie cospirative).

Successivamente i partecipanti dovevano esporre una teoria complottista in cui credevano, indicando le prove e le esperienze a fondamento della loro opinione. In seguito l’AI ne preparava un riassunto e il partecipante doveva indicare il suo livello di fiducia in tale teoria. Dei 1055 partecipanti ne sono stati selezionati 774; gli altri hanno descritto teorie considerate non cospirative, o hanno indicato di non credere in nessuna teoria complottista e sono stati esclusi.

 

Nella fase successiva i partecipanti sono stati suddivisi in maniera casuale in due gruppi; un gruppo è stato ingaggiato in una conversazionedi 8 minuti in 3 round con l’AI, avente ad oggetto la teoria cospirativa esposta dal partecipante, mentre gli altri invece hanno interagito con l’AI riguardo un tema neutro. Questi ultimi rappresentavano il gruppo di controllo ed erano circa il 40%. I risultati hanno mostrato che, in seguito alla conversazione con l’AI, vi è stata una riduzione del 16,8% nella fiducia che i partecipanti riponevano nella teoria che avevano esposto, mentre nel gruppo dei placebo la riduzione è stata praticamente nulla. Inoltre l’effetto si è mostrato duraturo; infatti, dopo essere stati ricontattati dopo dieci giorni e dopo due mesi, in seguito a una nuova rivalutazione non sono stati riscontrati cambiamenti nella fiducia verso la teoria cospirativa.

 

Risultati simili sono stati ottenuti in uno studio separato, con alcuni cambiamenti procedurali, in particolare l’eliminazione della valutazione della credenza in teorie cospirative popolari attraverso il BCTI. Questo per evitare che l’esposizione preventiva al BCTI e alle teorie cospirative in esso contenute influenzasse la fiducia che i partecipanti hanno riportato nella teoria scelta. Ci si era accorti infatti che nello studio 1 il campione non rappresentava il pubblico americano, visto che vi era una percentuale più elevata di persone che ha espresso fiducia in una teoria cospirativa. Nonostante questo cambiamento il risultato è rimasto solido, con una riduzione della credenza nella teoria del 12,3%.

 

Nello studio 1 inoltre è stata misurata la credenza nelle 15 teorie cospirative proposte dal BCTI sia prima che dopo la conversazione con l’AI, 10 giorni dopo e 2 mesi dopo. Ciò che risulta interessante è che c’è stata una diminuzione generale nel grado di approvazione delle persone nei confronti di diverse teorie del complotto, con una generale tendenza a ridurre l’intenzione di abbracciare teorie cospirative. Un effetto domino che ha avuto effetti durevoli nel comportamento dei partecipanti.

 

L’effetto positivo è stato riscontrato anche nei partecipanti più convinti. Tuttavia è lecito pensare che i complottisti più convinti non abbiano scelto di partecipare allo studio. Questo si traduce in un bias del campionamento che potrebbe limitare la portata dei risultati.

 

Lo studio contraddice l’assunto secondo cui certe convinzioni siano inossidabili e che il mondo sia destinato ad un’era in cui i fatti non contano più, la cd era della post-verità. Lo studio ha diverse implicazioni. Se usate con responsabilità le AI possono diventare uno strumento per diffondere informazioni corrette, sui social o su internet. Ogni volta che un utente cerca un termine associato ad una teoria complottista sul web per esempio, l’AI potrebbe intervenire fornendo all’utente informazioni precise legate alla precisa ricerca che egli stava facendo. Questo è particolarmente importante in quanto in seguito alla conversazione con l’AI alcuni partecipanti hanno espresso sollievo, in quanto era la prima volta che qualcuno forniva una risposta chiara, logica e sensata ai loro dubbi.

 

Credere in una teoria complottista potrebbe sembrare un qualcosa fine a sé stesso, ma ha spesso implicazioni importanti, in quanto la gente agisce in base a quelle credenze. Pensiamo al PizzaGate e il conseguente assalto alla pizzeria[7] o a quanto un’epidemia abbia vita facile ogni qualvolta la popolazione non segue le misure anti contagio. È esattamente ciò che è successo durante la pandemia di COVID-19, quella che l’OMS definisce infodemia[8], vale a dire “la sovrabbondanza di informazioni, incluse informazioni false o fuorvianti, in ambiente fisico o digitale, durante una pandemia”, ha tenuto lontane molte persone da misure anti contagio e vaccini salvavita. Tutto questo può diventare particolarmente inquietante se si teme che a questa situazione non vi sia rimedio.

 

Il Mondo Sottosopra, per citare Massimo Polidoro[9], potrebbe tuttavia avere una via d’uscita e le evidenze scientifiche potrebbero avere un potente alleato nelle intelligenze artificiali.

 

 

[Alberto Forni]

 

[1] Ci siamo già occupati di questo tema su Minerva:

https://www.noidiminerva.it/la-dissonanza-cognitiva/

 

[2] https://skepticalinquirer.org/2021/12/schrodingers-bin-laden-the-irrational-world-of-motivated-reasoning/?fbclid=IwAR0X–Lm-evsszAM9VWjWv3y6Cgk9VW9ECuACt5wdjbi9TBPcLfaJS4Z7k4

 

[3] https://it.wikipedia.org/wiki/Lamarckismo

 

[4] https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=201520160SB277

 

[5] https://www.nytimes.com/2022/05/25/magazine/anti-vaccine-movement.html

 

[6] https://www.science.org/doi/10.1126/science.adq1814

 

[7] https://www.ilpost.it/2016/12/05/sparatoria-pizzagate/

 

[8] https://www.who.int/health-topics/infodemic

 

Sul tema segnaliamo il documentario “Infodemic – Il virus siamo noi” di Luca Perri, Matteo Foresti e BarbascuraX.

https://www.youtube.com/watch?v=ts53aZEwhSI

 

[9] Massimo Polidoro- Il Mondo Sottosopra. Il libro tratta di diversi argomenti citati nell’articolo, tra cui la dissonanza cognitiva.

https://www.amazon.it/mondo-sottosopra-Massimo-Polidoro/dp/8856672650