Obiettività
Abitualmente non siamo obiettivi. Di solito possiamo permettercelo, anzi può risultare vantaggioso. Ci sono situazioni però in cui l'obiettività è necessaria. Allora dobbiamo svegliarci e mettere sotto controllo la nostra mente per non sbagliare.
IL PROBLEMA DEGLI ERRORI DI RAGIONAMENTO NELLA LOTTA ALLA PANDEMIA
by Parisio Di Giovanni, Alessandra Martelli, Raffaele Mascella
dicembre 2020
corrispondenza
In sintesi
Durante la pandemia del COVID-19 sono stati commessi e si commettono errori di ragionamento a tutti i livelli, dai governanti e gli esperti, fino ai cittadini. Sono errori che possono compromettere la lotta alla pandemia e avvantaggiare il virus. Non c’è da meravigliarsi perché gli errori di ragionamento sono radicalmente umani. Li commettiamo continuamente tutti noi. Sono dovuti in parte al fatto che non abbiamo sufficienti risorse per seguire procedimenti razionalmente corretti, come dice la classica teoria della razionalità limitata di Simon. In parte si spiegano con la teoria della razionalità ecologica, affermatasi negli ultimi decenni. Certi errori a ben guardare sono funzionali, specie per cavarcela nella vita sociale quotidiana. Hanno sotto tendenze distorsive che ci allontanano dai procedimenti corretti, i biases, che spesso sono verosimilmente frutto dell’evoluzione umana e hanno basi biologiche. Oltre che essere radicalmente umani gli errori di ragionamento sono favoriti da processi tipici del lavoro di gruppo, che si verificano in riunioni di comitati o governanti, dalle dinamiche dei gruppi nei social e altri fattori situazionali. Che fare allora? Fortunatamente, se ne siamo consapevoli e li conosciamo, possiamo correggere gli errori di ragionamento con la metacognizione, pensando sui nostri pensieri. Tuttavia farlo non è facile, specie per chi non è addestrato. In una situazione così grave come quella che stiamo vivendo, che richiede di essere razionali e obiettivi, forse i vertici impegnati in importanti decisioni potrebbero avvalersi della consulenza di esperti (psicologi, logici, matematici, statistici, studiosi di comunicazione, psicoeconomisti) che li aiutino a fare metacognizione e a essere più razionali. Attenzione andrebbe posta anche a curare la comunicazione con i cittadini, tenendo in considerazione i comuni processi di pensiero. Dopo quasi un secolo di ricerche scientifiche conosciamo bene i comuni errori di ragionamento e sappiamo come evitarli quando è necessario essere obiettivi. L’errore di non avvalersi di queste conoscenze rischia di essere la madre di tutti gli errori che avvantaggiano il virus.
Errori dappertutto…e il virus si avvantaggia
Nei ragionamenti sulla pandemia e su come comportarsi per contrastarla sono stati commessi diversi errori e si continua a commetterli. Sono diffusi e pervasivi: li ritroviamo in vari Paesi del mondo, a livello dei governi, degli esperti, dei professionisti della sanità, di mass media, social e cittadini. A volte si pensa che gli errori di ragionamento riguardino i comuni cittadini, che non tengono certi comportamenti o non comprendono le misure per contrastare la pandemia. Non è così, li commettono anche i vertici e anche professionisti ed esperti coinvolti nelle decisioni strategiche o nella comunicazione alla popolazione. Altre volte ci si concentra su scelte dei vertici considerate illogiche. Si fanno anche confronti tra Paesi e si notano errori di questi o di quelli.
In realtà nessuno è esente. Ad esempio, governi e istituzioni sanitarie statali hanno ignorato ripetuti avvertimenti, che, dopo epidemie di virus simili rimaste contenute, da anni mettevano in guardia dal rischio di future pandemie provocate da virus ad alta contagiosità. Di conseguenza non ci si è organizzati preventivamente, pur avendo avuto molto tempo a disposizione. Quando la malattia è comparsa in Oriente i Paesi occidentali hanno sottovalutato la probabilità che si diffondesse altrove. Anche dopo i primi focolai in altre parti del mondo hanno continuato a sottovalutare il problema e soprattutto hanno sovrastimato la capacità dei propri sistemi sanitari di far fronte a un virus così contagioso. Cosa a prima vista incredibile, i Paesi occidentali si sono dimostrati impreparati anche nella seconda ondata, dopo aver sperimentato i limiti emersi durante la prima.
All’interno dei sistemi sanitari si è stentato a rendersi conto della sfida, a tutti i livelli, dagli operatori di prima linea ai manager, agli studiosi. Spesso è mancata la consapevolezza che il personale sanitario non aveva le competenze necessarie per occuparsi di una malattia nuova in uno scenario nuovo di assistenza ed è stata trascurata la formazione. Sono stati sottovalutati problemi organizzativi, come ideare e implementare in modo efficace ed efficiente processi di accesso all’assistenza o avvalersi di opportuni sistemi informatici e altre tecnologie. Come è stato osservato (1), la priorità in genere è stata data alle terapie intensive, preoccupati di evitare sul momento vittime, non adottando così una visione d’insieme, che tenesse conto di tutti i servizi importanti per le potenziali vittime future. Esperti accademici si sono spesso fidati delle competenze possedute più di quanto oggettivamente potevano permettersi. Tutto questo ha portato a ritardi nell’adeguamento dei sistemi sanitari e soprattutto a danni, che restano per lo più misconosciuti. Prevale la tendenza a guardare ai risultati positivi dell’impegno profuso in sanità senza fare un bilancio che tenga conto da un lato di quei risultati visibili e dall’altro di tutti i fallimenti invisibili o meno palesi dovuti ai difetti di funzionamento del sistema. Ecco un altro errore di ragionamento che si aggiunge ai precedenti.
Troviamo errori anche nella ricerca scientifica sul COVID-19, in particolare negli studi clinici sui possibili rimedi. Pressati dalla gravità del momento e dalla politica, presi dal desiderio di trovare una risposta medica efficace, sentendosi in primo piano nella scena pubblica, i ricercatori possono commettere una serie di errori di ragionamento che li portano a considerare soddisfacenti le prove raccolte sebbene oggettivamente non lo siano e magari a perseverare nelle loro convinzioni anche di fronte a obiezioni o smentite. In un articolo pubblicato sulla rivista della Mayo clinic Lucas Oliveira J. e Silva e altri parlano di “flessibilizzazione della scienza” (2). È la tendenza a rinunciare a quel rigore metodologico che abitualmente la ricerca scientifica ha. Se sono meno rigorosi, i ricercatori non sottopongono il loro lavoro a una attenta valutazione critica e presentano i risultati in modo deformato, sottolineando i benefici e minimizzando i rischi, un fenomeno noto come spin of reporting.
Emblematico il caso dell’idrossiclorochina. Inizialmente adoperata in Cina nella cura del COVID-19, l’idrossiclorochina è stata sperimentata su 20 pazienti in uno studio francese da cui emergevano risultati promettenti (3). Nonostante gli evidenti limiti metodologici, lo studio ha suscitato speranze più che critiche e si è diffusa la convinzione che la terapia fosse efficace. Una ricerca successiva su numeri decisamente più grandi (migliaia di pazienti) e meglio strutturata, seppure con altri problemi, è arrivata alla conclusione che non c’erano prove di efficacia dell’idrossiclorochina, come della clorochina, e semmai c’erano rischi di effetti collaterali (4). Eppure l’idrossiclorochina ha continuato a essere usata, con o senza l’approvazione delle Agenzie Regolatorie.
Nel caso dell’idrossiclorochina errori di ragionamento portano a conseguenze negative, non solo dirette, per i pazienti sottoposti a trattamenti privi di garanzie, ma anche indirette, ad esempio perché può esserci penuria del farmaco per patologie dove l’uso è consolidato. Gli autori dell’articolo sulla “flessibilizzazione” della ricerca scientifica concludono che “Sebbene durante una crisi globale debbano essere condotti studi clinici a ritmo serrato, è necessario che seguano standard metodologici per produrre prove affidabili e di alta qualità […] la pandemia non dovrebbe essere una scusa per trascurare aspetti importanti degli standard metodologici”.
Più recentemente il problema è stato sollevato nel caso della vaccinazione. In un articolo di dicembre Limaye R.J. e colleghi del Johns Hopkins Bloomberg School of Public Health dicono che come scienziati dei vaccini sono preoccupati delle possibili interferenze di pressioni politiche (5). Tra l’altro osservano che eventuali errori commessi nelle scelte relative al COVID-19 possono favorire esitazioni sulle altre vaccinazioni, che da decenni sono un problema, e compromettere azioni di prevenzione. A essere razionali le prove a favore dei benefici non devono rendere gli studiosi meno attenti ai dubbi e bisogna guardarsi dall’enfasi sulla prospettiva di successo più che sulla cautela che la scienza non “flessibilizzata” esige.
Saltano all’occhio anche errori dei mass media. Tanto per dirne una i dati vengono quotidianamente presentati senza un’adeguata interpretazione statistica. Nel tempo i giornalisti hanno imparato a correggere errori grossolani, ma siamo ancora lontani dal minimo di distorsione accettabile.
Ci sono poi tutti gli errori dei cittadini. Anche questi, come i vertici, hanno tardato a rendersi conto della minaccia, come hanno fatto fatica a comprendere l’utilità di certi comportamenti e la necessità di rinunciare a esperienze abituali della vita quotidiana. Hanno a volte preso decisioni badando agli effetti immediati o circoscritti alla propria esperienza e trascurando quelli di più lungo periodo o a più ampio raggio. È il caso ad esempio delle persone che in Italia, quando a marzo è stato annunciato il blocco delle regioni settentrionali, si sono spostate nelle meridionali, provocando sovraffollamento di treni, aerei, stazioni, aeroporti e diffusione a distanza dei contagi.
Meglio non tralasciare gli errori di comunicazione ai cittadini di governanti e esperti. A essere razionali bisognerebbe considerare come i messaggi inviati vengono elaborati nelle menti dei cittadini che li ricevono, come possono influire sui comportamenti e confezionarli di conseguenza. Bisognerebbe anche preoccuparsi del frame, di come ogni comunicazione viene inquadrata, di come viene intesa quella azione comunicativa nel rapporto governo-cittadini. Ad esempio, spazi nei mass media dedicati a informazioni e approfondimenti istituzionali opportunamente strutturati e con aggiornamenti continui potrebbero evitare la confusione, favorire una migliore presa di coscienza dei problemi, un approccio più razionale e scientifico e un maggiore coinvolgimento dei cittadini nell’impresa comune.
Il modo in cui le persone ragionano andrebbe tenuto presente anche al momento di stabilire norme di comportamento. Basti pensare che, come suggeriscono da tempo alcuni studi, vincolare a certi comportamenti per evitare eventi avversi può promuovere altri comportamenti ancora più rischiosi (6, 7). Del resto un principio guida per ottenere che i lavoratori si attengano a norme e programmi di sicurezza nelle organizzazioni è creare un “un clima di sicurezza”, cioè diffondere e mantenere viva l’idea che costruire sicurezza è un obiettivo aziendale, come il produrre (8).
Gli errori sono tanti e potremmo andare avanti a elencarli. Sta di fatto comunque che, specie messi insieme, ostacolano la gestione della pandemia. Eloquente è il titolo di un articolo su un tipico errore che la nostra mente commette, la tendenza all’ottimismo: Does the Coronavirus Epidemic Take Advantage of Human Optimism Bias? (9).
Ma gli errori di ragionamento sono radicalmente umani
Quando si accorgono di errori di ragionamento commessi nella vicenda della pandemia le persone di solito li attribuiscono a incapacità, ignoranza, interessi o condizionamenti esterni. Così diciamo ad esempio che enfatizzare i risultati positivi ottenuti e trascurare tutto quello che non è andato bene per governanti ed esponenti delle istituzioni, sanitarie in particolare, è un modo di difendere la propria immagine. Oppure che scienziati ed esperti sostengono una tesi o l’altra, sono più critici o meno critici riguardo a scelte, comportamenti o terapie a seconda delle convenienze, preoccupati della posizione che prendono nel contesto lavorativo e accademico e nella società, di non farsi nemici e di non essere attaccati. C’è anche chi pensa che la gente non tiene comportamenti adeguati a prevenire i contagi perché disinformata o perché poco educata al rispetto delle regole e a una vita civile. In queste, come in altre convinzioni simili, può esserci del vero, nel senso che i fattori chiamati in causa possono contribuire agli errori. Tuttavia si tratta di semplificazioni che non tengono conto di un punto fondamentale: gli errori di ragionamento sono radicalmente umani, fanno parte della nostra natura.
La nostra mente è soggetta a biases, tendenze distorsive che ci fanno deviare dai percorsi logici. Sono diversi e dopo quasi un secolo di ricerche li conosciamo abbastanza bene. I biases sono massicciamente diffusi. I nostri ragionamenti quotidiani sono intrisi di queste tendenze distorsive. Basta analizzare anche solo per pochi minuti ragionamenti e discorsi di una persona per dimostrarlo. È così per tutti noi, nessuno escluso. Diversamente da quanto ipotizzato in passato, oggi è chiaro che i biases non sono appannaggio di persone inferiori, ignoranti o con problemi psicologici. Infondata è anche l’idea che siano specifici di particolari personalità, come prospettato dalla teoria della personalità autoritaria di Adorno o della mente aperta e chiusa di Rokeach, maturate nel clima del dopoguerra nel tentativo di spiegare le derive razziste e totalitarie. Dei comuni biases risentono anche i professionisti, pure quando nelle loro attività è richiesta l’obiettività. Ad esempio, sono ben noti gli errori di ragionamento abitualmente commessi dai medici (10, 11). Andando ad analizzare la storia della scienza si scoprono casi di ragionamenti errati degli scienziati, che del resto sono facilmente riscontrabili nelle loro attività.
Come mai i biases sono presenti nei ragionamenti di tutti noi? Lo capiamo se ne esaminiamo le cause, se ci chiediamo perché si verificano. Le spiegazioni fondamentali sono due, entrambe valide, che vanno combinate, anche se a seconda dei casi può avere più peso l’una o l’altra. Abitualmente non abbiamo risorse sufficienti per seguire le procedure razionali ideali. La nostra mente non ha le capacità per trattare le informazioni, astrarre, fare i passaggi logici, analizzare i problemi, anche perché magari non riusciamo a concentrarci a sufficienza. Spesso ci mancano informazioni necessarie, come dati statistici o conoscenze tecniche. D’altra parte abbiamo il problema del tempo. Nella vita occorre prontezza, bisogna arrivare alle conclusioni in tempo utile, difficilmente possiamo prenderci tutto il tempo che servirebbe. Perciò ci affidiamo a euristiche, strategie non razionali per arrivare a conclusioni che funzionano come scorciatoie, grazie alle quali evitiamo la via lunga della raccolta completa di informazioni e dell’elaborazione sistematica e arriviamo in tempo, seppure con convinzioni meno fondate. È questo il nocciolo della teoria della razionalità limitata di Herbert Simon (12).
Negli ultimi decenni si è fatta strada ed è apparsa sempre più robusta la teoria della razionalità ecologica (13). Sebbene ci portino a commettere errori, i biases non possono essere liquidati come semplici difetti. Abitualmente sono utili, funzionali alla vita che facciamo. Sono il risultato di un adattamento della nostra mente alle esigenze che abbiamo, tanto che alcuni sembrano proprio ereditati nel corso dell’evoluzione biologica e legati a caratteristiche del funzionamento cerebrale. Ci aiutano soprattutto a cavarcela nella vita sociale, cosa che per l’uomo, come per i primati, è stata ed è verosimilmente la sfida più seria. Il grande sviluppo cerebrale dei primati e dell’uomo si direbbe ultimamente legato allo sviluppo di abilità necessarie ad affrontare questa sfida. La nostra è essenzialmente una intelligenza sociale, frutto dell’adattamento evolutivo ai problemi incontrati nel rapporto con gli altri e il contesto sociale, non nel rapporto con la natura. Rende bene l’idea Nicholas Humphrey, il quale osserva che i veri problemi di Robinson Crusoe cominciano quando arriva Venerdì (14). I biases consentono di formarci conoscenze che, seppure non obiettive, abitualmente sono utilizzabili nella vita sociale e inoltre temperano disagi che derivano proprio dal fatto che abbiamo intelligenza sociale, che siamo abili nel comprendere ciò che accade tra noi e gli altri. Oggi sappiamo bene che acquisire abilità nuove non è semplicemente una conquista, ma trascina con sé problemi nuovi.
Prendiamo la tendenza alla conferma, bias evidenziato dal famoso test della quattro carte di Wason (15).
E
F
2
5
dobbiamo controllare se è vera o falsa la regola
se una carta ha una vocale su un lato, sull’altro avrà un numero pari
possiamo girare solo due carte
quali scegliamo?
Razionalmente la strategia migliore per verificare una regola è cercare le prove contrarie, dato che una smentita vale più di tutte le conferme che raccogliamo. Le persone però tendono a cercare le conferme. Se ci riflettiamo, quando avanziamo un’ipotesi, preferiamo che venga confermata. La smentita di una nostra idea mette in qualche misura in discussione anche noi, mentre avere conferme è gratificante (16). In teoria gli scienziati dovrebbero essere contenti se la tesi sostenuta in un loro lavoro viene demolita, perché in questo modo la conoscenza avanza. Di solito però non è così.
D’altra parte nella vita di tutti i giorni è poco importante verificare regole. Ci basta seguire regole che per noi funzionano, vere o false che siano. Posso portare con me l’ombrello ogni volta che il cielo è nuvoloso. A essere razionale dovrei cercare smentite alla regola “se il cielo è nuvoloso piove” e arrivare a stabilire quando c’è davvero il rischio che piova, ma in pratica portarsi dietro l’ombrello è una buona strategia.
Nell’ottica della razionalità ecologica acquistano un diverso valore fattori all’origine di biases più intuitivi per il senso comune e sui quali anche la psicologia in passato si è concentrata. Ad esempio, la parzialità, il fatto che i nostri giudizi sono influenzati da punti di vista soggettivi o interessi, va letta come una modalità di adattamento alla vita sociale. Allo stesso modo il bisogno di coerenza, la tendenza a mettere ordine nelle nostre conoscenze a costo di deformare la realtà, ci aiuta a mantenere una visione stabile e accettabile di noi stessi e del mondo in cui viviamo e serve ad adattarsi in una realtà che cambia e ci mette in discussione, fino a disgregarci.
Interessante è il fatto che i biases possono favorire la creatività. Il pensiero creativo richiede di discostarsi dalle procedure razionali ideali per lasciare spazio alla libera produzione di idee e poi vagliarle. Importanti scoperte scientifiche hanno dietro errori di ragionamento. Nell’uomo e nei primati la creatività è particolarmente importante per adattarsi all’ambiente. Diversamente da quanto accade in altri animali, l’adattamento è infatti prevalentemente culturale, effetto di innovazioni ideate per rispondere a minacce e cambiamenti ambientali.
C’è chi ha avanzato l’ipotesi che i biases siano una forma di pensiero primitivo che sopravvive in noi. A una analisi attenta l’ipotesi risulta infondata. Tuttavia, opportunamente reinterpretata, ha dentro qualcosa di credibile. I nostri meccanismi di pensiero sono emersi nei 100.000 anni della storia evolutiva di Homo Sapiens moderno o forse nei milioni di anni del genere Homo. Negli ultimi millenni però le società umane sono cambiate ed è credibile che certi meccanismi risultino meno funzionali che in passato.
L’argomento è vasto, complesso e affascinante. Quello che ci interessa qui è aver chiaro che i biases sono parte integrante della natura umana e che si affacciano regolarmente nei ragionamenti di tutti noi.
Il bias dell'ottimismo
Particolare importanza negli errori di ragionamento sulla pandemia ha il bias dell’ottimismo. Consiste nel sopravalutare la probabilità di andare incontro a eventi positivi e sottovalutare quella di incorrere in eventi negativi. È collegato al bias della positività, chiamato in vari modi, tra cui effetto Pollyanna, dal nome della protagonista di una famosa storia per ragazzi, che vedeva lati positivi in tutto. Solo che la tendenza alla positività riguarda essenzialmente la percezione del mondo presente, mentre il bias dell’ottimismo le aspettative sul futuro. Per effetto del bias della positività pensiamo di vivere in una realtà in cui le cose positive sono la regola e le negative rappresentano eccezioni. L’effetto di quello dell’ottimismo è credere che il nostro futuro sarà migliore di come ragionevolmente sarà, che avremo più successo a scuola, nel lavoro, nella vita di coppia, che difficilmente ci ammaleremo o avremo incidenti, che vivremo più a lungo di quanto possiamo aspettarci stando alle statistiche e alla nostra condizione, che il trattamento del paziente funzionerà, che scelte aziendali, istituzionali o governative porteranno i loro frutti.
Il bias dell’ottimismo è ben documentato nella ricerca scientifica. Alcuni studi confrontano le aspettative che le persone hanno circa il fatto che eventi positivi e negativi capitino a sé o ad altri (17). Tendiamo a considerare gli eventi positivi più probabili per noi che per gli altri e a fare il contrario per i negativi. In altri studi i ricercatori hanno chiesto di stimare la probabilità che vari eventi positivi e negativi accadessero in un dato arco temporale e hanno poi controllato come effettivamente sono andate le cose (18). Emergono differenze tra aspettative e realtà, di segno opposto a seconda che si tratti di eventi negativi o positivi.
Sebbene si riscontrino differenze tra culture, categorie e gruppi sociali o legate all’età o alla personalità, il bias dell’ottimismo è universale. Abbiamo prove che ha basi biologiche, è adattativo e affonda le sue radici nell’evoluzione (19). Uno dei meccanismi che ci fa essere ottimisti è l’aggiornamento selettivo delle informazioni sugli eventi futuri, detto anche update bias. Tendiamo a incamerare maggiormente le informazioni che fanno pensare a scenari positivi e meno le altre. Il nostro cervello ha una ridotta capacità di codificare a livello di lobo frontale le informazioni che portano a previsioni negative. Il pensiero di scenari futuri positivi attiva poi maggiormente l’amigdala e la corteccia cingolata anteriore, col risultato che li consideriamo più vicini nel tempo e ne costruiamo una visione più dettagliata e concreta.
Esperimenti ingegnosi hanno dimostrato il bias dell’ottimismo anche in vari animali. Nell’uomo a rendere particolarmente importante il bias dell’ottimismo interviene un alto livello di coscienza di sé. Noi abbiamo l’autoconsapevolezza oggettiva, che ritroviamo anche negli scimpanzè, negli orango e delfini, cioè siamo capaci di uscire mentalmente da noi e guardarci con distacco, considerandoci presenze nel mondo. Come è stato osservato per esseri dotati di autoconsapevolezza oggettiva, la coscienza dei rischi della vita e della morte, senza illusioni ottimistiche, avrebbe scoraggiato le attività necessarie alla sopravvivenza (20). Vari studi suggeriscono poi che il bias dell’ottimismo è in genere vantaggioso nella vita: statisticamente si accompagna al successo, il benessere, la sopravvivenza. C’è di più: caratterizza le persone mentalmente sane. A valutare correttamente le aspettative future sono le persone che soffrono di depressione lieve, mentre quelle affette da depressione maggiore mostrano un bias contrario, del pessimismo (21).
Il bias dell’ottimismo ha avuto verosimilmente un ruolo in quasi tutti gli errori commessi nel corso della pandemia. La tendenza a considerare più probabili scenari futuri positivi ha evidentemente contribuito al ritardo nel prendere coscienza della gravità della minaccia e prepararsi, all’inizio e persino dopo la prima ondata, a tutti i livelli, dai governanti alle istituzioni sanitarie, ai cittadini. Il bias ha anche ostacolato un’analisi attenta dei rischi e li ha fatti apparire più lontani.
La fiducia in terapie o la speranza riposta nei vaccini risente del bias dell’ottimismo, che può portare a concentrarsi sui possibili benefici e a trascurare informazioni che mettono in guardia e inducono a interrogarsi su scenari meno rosei. Ne risente anche la “flessibilizzazione” della scienza, in quanto il rigore scientifico richiede di prendere in seria considerazione perplessità e critiche che portano a stimare attentamente le probabilità di insuccesso a fronte di quelle del successo. Anche qui non c’è solo la sottovalutazione della probabilità che le cose vadano male, ma anche l’ostacolo a una analisi attenta dei rischi e dei possibili scenari negativi. La tendenza all’ottimismo falsa anche la percezione dell’urgenza, spingendo a guardare ai benefici che possono derivare dall’agire rapidamente e accelerare processi, piuttosto che ai danni.
Si vede il bias dell’ottimismo anche nella leggerezza della comunicazione ai cittadini di governanti e esperti. C’è una sopravvalutazione della probabilità che la comunicazione funzioni e una sottovalutazione di quella che risulti inefficace o controproducente. Ad esempio, esperti che dicono “vorrei rassicurare la popolazione” o “tranquilli, non c’è alcun problema” stanno sottovalutando la probabilità di impatto negativo di frasi del genere, magari proprio sui target più interessanti.
Chiaramente il bias dell’ottimismo non favorisce i comportamenti di prevenzione dei cittadini. Nella misura in cui i rischi sono ritenuti meno probabili di quello che sono o appaiono un problema essenzialmente di altri, l’impegno nella prevenzione si riduce.
E altri biases
Al bias dell’ottimismo se ne aggiungono altri e spesso più biases agiscono insieme, formando intrecci di fattori causali alla base degli errori di ragionamento. Ad esempio, all’iniziale sottovalutazione del rischio di pandemia da parte di governi e istituzioni sanitarie statali sembra aver contribuito, accanto al bias dell’ottimismo, l’euristica dell’ancoraggio (22), cioè la tendenza a valutare una probabilità assumendo come riferimento una informazione e a basarci su quella, senza considerarne attentamente altre. La precedente epidemia da SARS-CoV-1 era rimasta confinata in Asia e questo può aver indotto a pensare che un virus simile si sarebbe comportato allo stesso modo.
Ha fatto sicuramente la sua parte l’autoconvalida, detta anche errore di persistenza (11). Una volta che ci siamo formati una convinzione, cui magari siamo arrivati con l’euristica dell’ancoraggio, riusciamo a conservala anche di fronte a evidenze contrarie. Come è possibile che siano stati ignorati avvertimenti di famosi scienziati e realtà internazionali?
Sono diversi i meccanismi grazie ai quali conserviamo le nostre convinzioni. Nel caso di questi avvertimenti ignorati può avere avuto un ruolo la tendenza alla conferma, che ha portato a dare peso alle informazioni che facevano sperare in un contenimento in Oriente e a trascurare gli avvertimenti. Probabilmente è intervenuto un classico costrutto di autoconvalida, che Perelman e Olbrecht-Tyteca (23) hanno chiamato relega in un campo inattivo: chi avverte lo fa per prudenza, per cui questi avvertimenti non sono poi così importanti.
Può essere entrato in gioco anche il bias dell’omissione, che ci spinge a preoccuparci maggiormente delle conseguenze negative di qualcosa che facciamo che di qualcosa che non facciamo. Prendere sul serio gli avvertimenti avrebbe richiesto iniziative che avrebbero allarmato la popolazione per poi scoprire magari che erano inutili. Le conseguenze negative del non agire prontamente sono sembrate meno gravi.
Quando poi la malattia ha cominciato a presentarsi in Italia e in altri Paesi occidentali la lenta reazione si spiega in parte per l’overconfidence, la tendenza ad avere una fiducia eccessiva nelle nostre valutazioni che tipicamente manifestiamo quando siamo alle prese con problemi complessi e compiti impegnativi (24). Verosimilmente i Paesi occidentali hanno sovrastimato le capacità dei propri sistemi sanitari di far fronte alla pandemia e governanti e esperti hanno sovrastimato l’affidabilità dei propri giudizi sulle capacità dei sistemi sanitari. Certamente c’è stata anche la sottovalutazione della gravità della minaccia dovuta all’euristica dell’ancoraggio legata all’esperienza di precedenti epidemie virali e all’illusione del controllo, che ha spinto a pensare di essere in grado di gestire la minaccia meglio di quanto realisticamente si poteva. Distorsioni cognitive analoghe devono essere intervenute dopo la prima ondata.
Proviamo a riflettere su un altro esempio: gli errori di ragionamento dietro alla “flessibilizzazione” della scienza. Chiaramente il bias dell’ottimismo gioca un ruolo chiave nelle speranze riposte in armi disponibili nella lotta al COVID-19, ma anche qui interviene l’autoconvalida: le perplessità che alcuni ricercatori sollevano non intaccano le convinzioni fiduciose. Ci si avvale di strategie quali la tendenza alla conferma o il ricorso a costrutti di autoconvalida. Come scrivono nel loro articolo Oliveira J E Silva, Lucas e colleghi (2) la perseveranza nella fede è tale che, se si sottolineano le perplessità, il rifiuto di queste è ancora più forte, si assiste al cosiddetto backfire effect.
D’altra parte, mentre è facile immaginare lo scenario in cui i mezzi disponibili funzionano, è difficile vedere scenari in cui non funzionano. Sappiamo che questo accade per effetto dei meccanismi neurofisiologici del bias dell’ottimismo ricordati in precedenza, ma nella lotta al COVID-19 incide anche il fatto che la scienza sa poco e non abbiamo elementi certi per dire che cosa può succedere in caso di insuccesso delle azioni. A rigore i dubbi sull’efficacia e la sicurezza dovrebbero essere presi sul serio anche se non sappiamo esattamente che cosa può accadere, ma la nostra mente considera più vero quel che riesce a immaginare chiaramente di ciò che immagina in modo vago.
Nel caso della vaccinazione l’euristica dell’ancoraggio può portare a pensare che l’esperienza sia come quella di altre vaccinazioni, trascurando il fatto che una situazione come questa è inedita. C’è poi l’effetto certezza: per noi le azioni che possono portare la probabilità di un rischio a 0 o quasi valgono più di quelle che l’abbassano non approssimandosi a 0, a prescindere dalla probabilità che l’azione ha di funzionare (25). Se ci riflettiamo la vaccinazione è una importante sfida che, se la vinciamo, può ridurre i rischi perfino a 0 e questo dato nelle nostre menti umane tende a prevalere su quello della probabilità a monte di vincere. Del resto sappiamo che in sanità le azioni preventive che possono annullare o quasi certi rischi sono più convincenti di quelle che li riducono (26). Interviene anche la tendenza a perseverare. La strategia adottata è stata quella di aggredire la pandemia, trattandola come una malattia acuta da guarire prima possibile, non come una cronica con cui convivere almeno per un certo tempo. La vaccinazione di massa va nella stessa direzione e può farci sperare nella guarigione nonostante le azioni precedenti abbiano suggerito una cronicità del problema.
Possiamo andare avanti nell’analisi. Perché si è scelta la strategia di adottare misure rigorose per contenere la pandemia e solo qualche Paese, in particolare Svezia, Svizzera o Giappone, ha optato per misure morbide? E come mai sembra non ci si sia seriamente interrogati su costi e benefici delle diverse strategia? Nella scelta forse un ruolo l’hanno avuto il bias del presente e del visibile: ci si è concentrati sul problema del momento e su danni e vittime identificabili, interrogandosi poco sul futuro e sulle vittime invisibili che rischiavano di esserci per effetto delle azioni di salvataggio intraprese. L’autoconvalida ha consentito di trascurare il caso di chi ha adottato una strategia diversa. Nel caso della Svezia o della Svizzera per lo più ci si è basati sulla reinterpretazione errata di dati e informazioni, in quello del Giappone sull’ignorare le informazioni e sulla relega in un campo inattivo (hanno una cultura diversa dalla nostra).
Potremmo passare, ad esempio, ai biases che infuenzano i cittadini o che troviamo nei media, ma forse l’idea che gli errori di ragionamento che avvantaggiano il virus hanno dietro molti nostri biases emerge già abbastanza chiaramente.
Per non parlare dei gruppi
Nella gestione della pandemia si elaborano strategie e si prendono decisioni importanti in riunioni di gruppo. Intuitivamente possiamo pensare che questo sia un vantaggio. In realtà sappiamo bene da tempo che è rischioso. Nelle attività intelligenti i gruppi, se certe dinamiche non vengono adeguatamente gestite e non c’è il clima adatto, finiscono per rendere poco, anche meno di un singolo, e a volte commettono errori grossolani (27, 28). Come mai?
Negli anni Settanta Ivan Dale Steiner (29, 30) ha chiarito il principio chiave. Un gruppo ha una produttività potenziale, che tende a restare superiore alla produttività effettiva a causa di perdite di processo (process losses), cioè perdite di produttività dovute a processi difettosi (faulty processes). Il principio è sintetizzato dalla formula:
produttività effettiva = produttività potenziale – perdite di processo.
Nelle attività intelligenti le perdite di processo sono più presenti e marcate. Sono diverse e alcune consistono nell’adottare strategie errate che possono portare a errori grossolani e far rimpiangere l’intelligenza del singolo. Una delle più pericolose è il groupthink, descritto inizialmente da Irving Janis (31, 32, 33), che è partito dall’analisi di decisioni storiche prese da commissioni politiche o militari e rivelatesi grossolanamente sbagliate, nonostante i singoli componenti fossero persone di indubbie capacità. Nella vicenda di Pearl Harbour lo Stato Maggiore ha vistosamente sottovalutato il rischio di attacco giapponese, a quanto pare ignorando anche segnalazioni dell’intelligence. Nel caso dell’invasione della Baia dei Porci, venne presa la decisione di far sbarcare a Cuba esuli cubani sperando che si sollevassero gli oppositori del regime di Castro e si ottenne come risultato una grave tensione internazionale. Anche in questo caso sono state ignorate le informazioni dei servizi segreti.
Nel groupthink l’esigenza di essere coesi e andare d’accordo prevale sul desiderio di capire come realmente stanno le cose. I partecipanti si autocensurano: evitano di esprimere dubbi o critiche per non mettere in crisi lo spirito di corpo che anima tutti. Se qualcuno prova ad avanzare una critica, subito viene ripreso e trattato come uno che avversa il gruppo. Vedendo che nessuno muove obiezioni ciascuno pensa che effettivamente si sia tutti d’accordo: scatta il bias del falso consenso. Siccome sembra regnare un accordo generale, nessuno si azzarda ad andare controcorrente e ci si convince ancora di più di essere tutti d’accordo, entrando in una spirale del silenzio. L’euristica del consenso porta a credere che le idee maturate nel gruppo siano veritiere. Matura un senso di sicurezza ed infallibilità, per cui informazioni discordanti che arrivano da fonti esterne non vengono prese sul serio. Si prendono decisioni senza considerare alternative possibili e non si valutano attentamente pro e contro della scelta. Tipicamente si fanno piani astratti e poco realistici.
C’è un fatto interessante: come aveva notato già Janis, è più facile che un gruppo finisca preda del groupthink quando è sotto stress e avverte minacce esterne (34). Verosimilmente è quello che accade nelle riunioni dove vertici sono chiamati a prendere decisioni delicate nella gestione della pandemia.
Ci siamo concentrati sulle riunioni in cui vertici istituzionali decidono. Il groupthink però sembra essere importante anche in reazioni e movimenti che si oppongono alle misure sanitarie, magari sulla base di opinioni discutibili o infondate (35). In questi casi non si tratta di piccoli gruppi che interagiscono in riunioni, ma piuttosto di reti sociali che comunicano in particolare attraverso i social. Se ci riflettiamo nel momento attuale anche per i cittadini ci sono le tipiche condizioni di stress e minaccia che favoriscono il groupthink. C’è anche il peso dato alla coesione, sebbene questa più che sui rapporti interpersonali si basi sull’impegno e l’identificazione in una causa comune, magari connotata moralmente, ad esempio chiamando in causa le libertà personali.
Come uscirne?
Nella difficile situazione della pandemia sarebbe meglio ragionare il più possibile correttamente, a tutti i livelli, dai vertici istituzionali ai cittadini. È vero che in alcuni casi ragionamenti errati hanno portato a conclusioni esatte e risultati positivi. Nella storia della scienza a scoperte importanti si è arrivati attraverso percorsi di pensiero viziati da distorsioni non logiche. La scoperta di Nettuno, ad esempio, è avvenuta grazie a un bias di autoconvalida (11, 36). Gli astronomi esplorando il sistema solare vedevano confermate le leggi di Newton. I satelliti di Urano però avevano orbite irregolari per le leggi di Newton. La maggior parte degli scienziati pensava che le leggi di Newton valessero fino a Urano: adottavano un costrutto di recinzione, ancorati alla concezione aristotelica dell’universo a sfere concentriche. Le Verrier ipotizzò che ci fosse l’interferenza di un pianeta che non si vedeva. Fece i calcoli, puntò il cannocchiale e scoprì Nettuno. Il suo era un tipico costrutto di autoconvalida basato sull’introduzione di un fattore perturbante: c’è un fattore che altera le orbite e le leggi di Newton restano valide. Logicamente l’autoconvalida è un errore, ma fortunatamente il fattore perturbante c’era.
Tornando al COVID-19, può accadere (ed è augurabile) che la vaccinazione di massa funzioni e salvi l’umanità, sebbene dietro la decisione di intraprenderla possano esserci errori di ragionamento. In linea di massima però in situazioni critiche come quella della pandemia conviene essere razionali e obiettivi, piuttosto che sperare nell'aiuto della buona sorte. Ma come? Se gli errori di ragionamento sono radicalmente umani, come possiamo liberarcene?
Fortunatamente i biases sono sistematici, sempre gli stessi nelle stesse circostanze, e oggi li conosciamo piuttosto bene. Perciò possiamo avvalerci della metacognizione, intesa come il lavoro di gestire le nostre attività cognitive basandoci sulle conoscenze di cui disponiamo circa il funzionamento della mente. So che in questo tipo di ragionamento incorriamo in questi biases, così sto attento a non farmi fuorviare e se ho sbagliato correggo i miei pensieri. Corsi di obiettività basati sulla metacognizione si realizzano da tempo per professionisti alle prese con valutazioni e decisioni delicate, come magistrati o medici. Si sensibilizzano le persone al problema, si incoraggia la metacognizione, si spiegano i comuni biases e poi ci si esercita, meglio se in gruppo di modo che uno può far notare all’altro gli errori e si beneficia della cooperazione.
Nella gestione della pandemia forse varrebbe la pena che chi è alle prese con importanti decisioni si giovi del supporto di esperti che conoscono i nostri errori di ragionamento e sanno come evitarli. Anche la comunicazione con i cittadini potrebbe giovarsi della consulenza di esperti che hanno idea di come i messaggi vengono elaborati e dei contesti mentali in cui le azioni comunicative sono portate avanti. Ad esempio, nel caso dei movimenti che si oppongono a certe misure metterli in discussione squalificando chi ne fa parte è un errore a due livelli. Interpretiamo male la realtà sopravvalutando il peso delle persone e sottovalutando fattori situazionali come il groupthink: è un bias noto come errore fondamentale di attribuzione. Inoltre attaccare è controproducente, perché rafforza il groupthink. Per cercare di ottenere qualche risultato dovremmo adottare strategie diverse.
Parisio Di Giovanni, Alessandra Martelli, Raffaele Mascella
RIFERIMENTI
1) Halpern S.D. et al. (2020) Cognitive Bias and Public Health Policy During the COVID-19 Pandemic. JAMA, 324(4):337–338.
2) Oliveira J E Silva, Lucas et al. (2020) Flexibilization of Science, Cognitive Biases, and the COVID-19 Pandemic. Mayo Clinic proceedings, 95 (9): 1842-1844.
3) Gautret P. et al. (2020) Hydroxychloroquine and azithromycin as a treatment of COVID-19: results of an open-label non-randomized clinical trial, International Journal of Antimicrobial Agents, 56 (1): 105949.
4) Mehra M. R. et al. (2020) RETRACTED: Hydroxychloroquine or chloroquine with or without a macrolide for treatment of COVID-19: a multinational registry analysis. The Lancet, 95(10240):1820.
5) Limaye R.J. et al. (2020) Politicizing public health: the powder keg of rushing COVID-19 vaccines. Hum Vaccin & immunotherapeutics Dec.17:1-2
6) Peltzman, S. (1975). The effects of automobile safety regulation. Journal of Political Economy, 83, 677-725.
7) Stetzer, A., and Hofmann, D. A. (1996). Risk compensation: Implications for safety interventions. Organizational Behavior and Human Decision Processes, 66, 73-88.
8) Zohar D. (1980) Safety climate in industrial organizations: Theoretical and applied implications. Journal of Applied Psychology, 65, 96-102.
9) Bottemanne H. et al. (2020) Does the Coronavirus Epidemic Take Advantage of Human Optimism Bias? Frontiers Psychology, 11: 2001.
10) Di Giovanni P. et al. (2009) La razionalità in medicina. Romai: Carocci.
11) Bianchi A. e Di Giovanni P. (2016) Errori di ragionamento in medicina. Really New Minds.
12) Simon H. A. (1955) A behavioral model of rational choiche. Quartely Journal of Economics, 69, 99-118.
13) Todd P. M. and Gigerenzer G. (2003) Bounding rationality to the world. Journal of Economic Psychology, 24, 143-165.
14) Humphrey N. K. (1983) Consciousness regained. Oxford: Oxford University Press.
15) Wason P. C. (1966) Reasoning. In B. Foss (Ed.) New Horizons in psychology. Harmond-sworth: Penguin.
16) Klayman J. and Ha Y. (1987) Confirmation, disconfirmation, and information in hypothesis testing. Psychological Review. 94, 211-228.
17) Weinstein, N. D. (1980). Unrealistic optimism about future life events. Journal of Personality and Social Psychology. 39(5), 806–820.
18) Sharot, T. (2011). The Optimism Bias. New York: Pantheon Books.
19) Sharot T. (2011) The optimism bias, Current Biology. 21 (23), 941-945.
20) Varki, A. (2009). Human uniqueness and the denial of death. Nature. 460, 7256–684.
21) Strunk, D.R. et al. (2006).Depressive symptoms are associated with unrealistic negative predictions of future life events. Behaviour Research and Therapy. 44, 861–882
22) Kawthar M. et al. (2020) Cognitive Biases Affecting the Maintenance of COVID-19 Pandemic. Authorea. August 28.
23) Perelman C., Olbrecht-Tyteca L. (1952) Réthorique et philosophie. Pour une théorie de l’argumentation en philosophie. Paris: PUF; trad. It. Retorica e filosofia. Bari: De Donato, 1979.
24) Mc Clelland A. G. R., Bolger F. (1994) The calibration of subjective probabilities: Theories and models. In G. Wright and P. Ayton (Eds.) Subjective probability. Chichester: Wiley and Sans.
25) Zeckhauser R. J. (1991) Strategy of choice. Cambridge (MA): MIT Press.
26) Viscusi W. K. et al. (1987) An investigation of the rationality of consumer valuations of multiple health risks. RAND Journal of Economics.18: 465-469.
27) Bianchi A. e Di Giovanni P. (2008) Cortesia e rendimento dei gruppi di lavoro: un’analisi teorica. In Economia della cortesia. Roma: Carocci.
28) Bianchi A. e Di Giovanni P. (2020) La forza della cortesia: come fa rendere i gruppi di lavoro. Really New Minds.
29) Steiner I.D. (1972) Group process and productivity. New York:Academic Press.
30) Steiner I.D. (1976) Task-performing groups. In J.W.Thibaut, J.T. Spence e R.C. Carson (Eds.) Contemporary topics in social psychology. Morristown (NJ): General Learning Press.
31) Janis I.L. (1968) Group identification under conditions of external danger. In D. Cartwright e A. Zander (Eds.) Group dynamics. New York: Harper & Row.
32) Janis I.L. (1972) Victims of groupthink. Boston (MA): Houghton Mifflin.
33) Janis I.L. (1982) Gorupthink. Boston (MA): Houghton Mifflin.
34) Turner, M. E. et al. (1992). Threat, cohesion, and group effectiveness: Testing a social identity maintenance perspective on groupthink. Journal of Personality and Social Psychology, 63(5), 781–796.
35) Forsyth, D. R. (2020). Group-level resistance to health mandates during the COVID-19 pandemic: A groupthink approach. Group Dynamics: Theory, Research, and Practice, 24(3), 139-152.
36) Grosser M. The Discovery of Neptune (1962) Cambridge, MA: Harvard University Press. Trad. it La scoperta di Nettuno. Milano: Il Castello (1986).
Soluzione - Test di Wason
La risposta esatta è E e 5. Solo una minoranza delle persone che non conoscono già il test risponde correttamente. C'è chi sbaglia perché fraintende la regola o il problema. La maggior parte delle persone che non fraintendono sceglie E e 2. Con questa scelta però possiamo rispondere al quesito solo se dietro alla E c'è un numero dispari e la regola si rivela falsa. Altrimenti, se dietro la E c'è il pari, abbiamo una conferma. Quando poi giriamo il 2 possiamo avere una indicazione inutile (trovare una consonante) o un'altra conferma (trovare una vocale). Tuttavia dietro al 5 potrebbe esserci una smentita (una vocale). Senonché, avendo scelto E e 2, non abbiamo più carte che possiamo girare e restiamo intrappolati nel dubbio. Fatto interessante, se alle persone si chiede se dietro alla E preferiscono ci sia un pari o un dispari, per lo più rispondono che preferiscono ci sia il pari. Tendono a restare perplesse o andare in crisi quando si spiega che, nel caso ci sia un dispari, abbiamo il grande vantaggio che il problema è risolto senza bisogno di cercare oltre.