DENTRO LA MENTE – L’arte della previsione: come pensano (e imparano) i superprevisori

di SIMONE PAZZAGLIA 

Pensare il futuro in modo più intelligente

Prevedere il futuro è sempre stata un’attività ambigua, incerta e, spesso, mitizzata. Dai profeti antichi agli analisti finanziari contemporanei, l’essere umano ha attribuito uno statuto quasi magico alla capacità di anticipare gli eventi. Eppure, come dimostrano decenni di studi, gli esperti spesso non sono migliori del caso nel fare previsioni. È proprio da questo dato scomodo che prende avvio Superforecasting: The Art and Science of Prediction, il lavoro monumentale di Philip E. Tetlock, psicologo e politologo, in collaborazione con il giornalista scientifico Dan Gardner.

Frutto di oltre vent’anni di ricerca e di un progetto empirico su larga scala – il Good Judgment Project – il libro rovescia il mito dell’esperto infallibile e propone una tesi sorprendente quanto ambiziosa: la capacità di prevedere con accuratezza è una competenza cognitiva e metodologica che può essere allenata, migliorata, condivisa. Alcune persone – i cosiddetti superforecaster – sono sistematicamente più accurate nelle loro previsioni rispetto alla media, e non perché possiedano una sfera di cristallo, ma perché applicano in modo disciplinato una serie di pratiche mentali rigorose, riflessive e aperte al feedback.

Il punto non è che tutto sia prevedibile. Al contrario: Superforecasting parte dal presupposto che il mondo è complesso, incerto e dominato da variabili non lineari. Tuttavia, anche in questo contesto, è possibile formulare stime probabilistiche migliori, affinare l’intuizione con il metodo, e soprattutto imparare dai propri errori. Non esiste l’infallibilità, ma esiste una cultura del giudizio accurato, fatta di rigore, di umiltà cognitiva e di aggiornamento continuo.

Nel corso del libro, Tetlock e Gardner ci mostrano come si sviluppano queste abilità, chi sono i superprevisori, quali tecniche usano, e come queste competenze possano essere applicate non solo all’intelligence o alla geopolitica, ma anche al management, alla comunicazione, alla politica pubblica. Superforecasting non è un libro sulla predizione: è un libro sulla qualità del pensiero – e sul modo in cui possiamo coltivare una forma di razionalità adattiva per affrontare meglio un futuro incerto ma non impenetrabile.

Il fallimento degli esperti – Perché chi ha titoli e fama spesso sbaglia

Nel 2005, Philip Tetlock pubblicò un’opera destinata a scuotere le fondamenta della scienza politica e dell’analisi strategica: Expert Political Judgment. Il libro era il risultato di un’indagine durata oltre quindici anni, nella quale Tetlock raccolse oltre 28.000 previsioni su eventi politici, economici e geopolitici, formulate da centinaia di esperti riconosciuti. Le conclusioni furono clamorose: gli esperti sbagliavano in media quanto – e talvolta più di – un dilettante che tirasse a indovinare, e i più sicuri di sé erano, paradossalmente, i meno accurati.

Questa constatazione mise in discussione l’intero modello epistemico dell’expertise: avere accesso a più informazioni, possedere titoli accademici o esperienza sul campo non garantisce affatto una migliore capacità predittiva. Al contrario, la ricerca mostrava che molti esperti sono vittime della coerenza narrativa, dell’ideologia, del confirmation bias e della sovrastima delle proprie capacità.

Per spiegare questa dinamica, Tetlock rispolvera una metafora antica, tratta da un frammento di Archiloco e ripresa da Isaiah Berlin: “La volpe sa molte cose, ma il riccio sa una cosa sola e grande.” In ambito predittivo, i ricci sono gli esperti con una grande teoria del mondo: vedono tutto attraverso una chiave di lettura unica, sono ideologicamente coerenti, eloquenti, convincenti. Le volpi, al contrario, sono pluraliste, caute, aperte all’ambiguità: preferiscono modelli multipli e ipotesi modulari, rivedono le proprie opinioni alla luce di nuovi dati, accettano la complessità.

I risultati del Good Judgment Project hanno confermato che le volpi – cioè coloro che integrano fonti diverse, adottano un pensiero probabilistico, e accettano l’incertezza come dato strutturale – sono sistematicamente più accurate nelle previsioni. Non perché abbiano più informazioni, ma perché ragionano meglio su ciò che non sanno. Il segreto non sta nell’accesso privilegiato ai dati, ma nella qualità cognitiva del ragionamento su base probabilistica, nella disciplina dell’aggiornamento, e nell’umiltà epistemica.

Il fallimento degli esperti non è casuale, ma sistemico. È il risultato di una cultura del prestigio, della visibilità e della performance comunicativa che premia la sicurezza, la linearità e l’audacia, piuttosto che la precisione, la cautela e il dubbio metodico. Gli esperti che fanno carriera nei media, nei think tank o nella politica sono spesso proprio quelli che esibiscono maggiore sicurezza e visioni forti – due qualità che, nel mondo delle previsioni reali, si rivelano controproducenti.

In questo senso, Superforecasting rappresenta un ribaltamento della gerarchia tradizionale della competenza: non conta quanto sei visibile, ma quanto sei misurabile. I superforecaster non sono profeti, ma scienziati del giudizio, che accettano il fallimento come occasione di apprendimento, scompongono i problemi, mantengono l’equilibrio tra analisi e intuizione, e soprattutto mantengono il dubbio al centro del proprio metodo.

Chi sono i superforecaster – Cognizione, metodo e disciplina

superforecaster, secondo Tetlock, non sono veggenti, né guru, né menti geniali fuori scala. Sono, piuttosto, persone con una combinazione virtuosa di umiltà epistemica, curiosità intellettuale, rigore metodologico e disciplina mentale. La loro abilità predittiva non dipende da un’intuizione soprannaturale, ma da un insieme di strategie cognitive ripetibili e migliorabili. Sono il prodotto di una razionalità esercitata, monitorata e perfezionata nel tempo.

Una delle qualità centrali dei superforecaster è la granularità cognitiva. A differenza degli esperti tradizionali, che tendono a pensare in blocchi concettuali rigidi e ideologici, i superprevisori scompongono i problemi in sotto-componenti, analizzano le variabili una per una, e formulano giudizi parziali che possono poi essere aggregati. Questo approccio consente una maggiore precisione nella stima e una migliore gestione dell’incertezza.

In termini epistemologici, i superforecaster ragionano in modo bayesiano: ogni previsione è un’ipotesi probabilistica, con un grado di fiducia esplicitamente quantificato, che può essere rivisto alla luce di nuovi dati. A differenza della mente ordinaria – che tende a formare convinzioni rigide e a difenderle anche contro le evidenze – i superprevisori trattano ogni opinione come una credenza provvisoria, da aggiornare con metodo. Il loro pensiero è fluido, ma non confuso: è sistematicamente aperto all’errore, e proprio per questo più affidabile.

Un’altra caratteristica è la tracciabilità delle previsioni: i superforecaster tengono un diario delle loro ipotesi, esplicitano i margini d’errore, documentano le fonti, e soprattutto analizzano in modo retrospettivo ciò che ha funzionato e ciò che no. Questo atteggiamento li distingue nettamente dalla cultura dell’esperto pubblico, che raramente è disposto a fare i conti con le proprie previsioni sbagliate. Per i superprevisori, invece, l’errore è una risorsa di apprendimento, non una minaccia alla credibilità.

Non meno importante è l’attitudine al lavoro in gruppo. Nei tornei di previsione del Good Judgment Project, i team composti da superforecaster performano meglio dei singoli: questo perché il confronto argomentato, se ben progettato, riduce i bias individuali, rafforza il pensiero controfattuale e consente una revisione reciproca delle assunzioni. Ma il gruppo funziona solo se ciascun membro mantiene un atteggiamento metacognitivo, cioè è consapevole dei propri limiti, è disposto ad ascoltare, e sa integrare prospettive diverse senza fondersi in un consenso acritico.

Infine, i superforecaster si distinguono per una forma di resilienza epistemica: tollerano l’ambiguità, gestiscono la pressione dell’incertezza, e resistono alla tentazione di chiudere il giudizio per ansia cognitiva. Non hanno bisogno di “avere sempre ragione”, ma di avere torto nel modo meno dannoso e più informativo possibile. Questa postura è il contrario del dogmatismo: è una forma di razionalità umile, paziente, disposta a fallire per imparare.

In sintesi, i superforecaster sono praticanti della previsione riflessiva: trattano ogni evento come un problema empirico, ogni stima come un esperimento mentale, ogni errore come un dato prezioso. In un’epoca in cui la superficialità dell’opinione spesso traveste sé stessa da competenza, essi rappresentano un modello di pensiero lento, accurato, responsabile – e, soprattutto, trasferibile.

Come si diventa superprevisori – Le tecniche e le abitudini mentali

Se i superforecaster non sono nati ma formati, come si apprende questa capacità? Quali strumenti cognitivi, metodologici e pratici mettono in campo per migliorare sistematicamente le proprie previsioni? La risposta che offre Superforecasting è tanto semplice quanto rivoluzionaria: il segreto non è sapere di più, ma pensare meglio. E pensare meglio significa applicare una serie di tecniche operative, quasi artigianali, che permettono di costruire giudizi predittivi più accurati e flessibili.

La prima tecnica fondamentale è la formulazione precisa delle domande. Spesso le previsioni falliscono non perché siano sbagliate, ma perché rispondono a domande mal poste. I superforecaster applicano una procedura che Tetlock chiama Fermi-ization (dal fisico Enrico Fermi): scomporre una domanda generica in sotto-domande misurabili, concrete, con scadenze temporali e criteri di verifica. Ad esempio, “L’economia italiana andrà meglio?” viene riformulata in: “Nel quarto trimestre del 2025, il PIL dell’Italia crescerà di almeno lo 0,4% rispetto al trimestre precedente secondo i dati ISTAT?”

Questa precisione semantica non è pignoleria: è una condizione necessaria per l’accuratezza predittiva. Senza una definizione chiara dell’evento, è impossibile assegnare una probabilità sensata o misurare il successo di una previsione. I superforecaster imparano a distinguere il mondo del linguaggio comune – ambiguo, fluido – da quello della previsione, che richiede rigore concettuale e chiarezza operativa.

La seconda tecnica chiave è la scomposizione analitica: ogni evento complesso viene spezzato in componenti più semplici, ciascuna delle quali può essere trattata con un diverso grado di certezza. Questa strategia, mutuata dalla logica computazionale e dal pensiero sistemico, consente di isolare le variabili rilevanti, stimarne l’impatto indipendente, e ricostruire una stima aggregata più informata e modulabile. I superforecaster usano modelli euristici e reference class – classi di eventi simili nel passato – per generare stime di base che vengono poi corrette in funzione delle specificità del caso.

Un terzo elemento cruciale è la revisione incrementale delle probabilità. I superprevisori non fanno previsioni “una volta per tutte”, ma mantengono un atteggiamento bayesiano dinamico, aggiornando le proprie stime man mano che emergono nuovi dati. Questo approccio li distingue da chi fa “previsioni puntuali” e poi si ritrae, oppure da chi difende la propria ipotesi iniziale nonostante le smentite. L’aggiornamento continuo – anche solo di qualche punto percentuale – è una delle chiavi della loro superiorità predittiva.

A queste tecniche si affianca una metodologia di documentazione e revisione: i superforecaster tengono traccia delle proprie ipotesi iniziali, dei motivi che le hanno motivate, dei dati utilizzati, e delle successive modifiche. Questo diario predittivo, più simile a un laboratorio che a un’agenda, consente una valutazione retrospettiva accurata, che non si affida alla memoria selettiva ma a dati concreti. È da qui che nasce il miglioramento continuo.

Infine, c’è l’aspetto metacognitivo: i superprevisori sorvegliano i propri processi mentali, sono consapevoli dei propri bias, e adottano strategie per contenerli. Ad esempio, praticano il “pensiero controfattuale” (what else could happen?), costruiscono scenari alternativi, cercano dati che contraddicano la propria ipotesi, e lavorano attivamente per non innamorarsi della propria narrazione. Il loro pensiero non è solo corretto: è attivamente decostruttivo, progettato per sfidare sé stesso.

In definitiva, diventare un superforecaster non richiede genialità, ma disciplina cognitiva, umiltà metodologica, precisione linguistica e apertura strutturale all’errore. È un modello di razionalità applicata, che può essere adottato – con il giusto allenamento – da chiunque si trovi a prendere decisioni in contesti di incertezza strutturale.

Le implicazioni etiche e strategiche – Prevedere per agire meglio

Superforecasting non è solo un trattato sulla previsione, ma una proposta etica sul modo in cui dovremmo prendere decisioni in società complesse. Per Tetlock e Gardner, prevedere meglio non significa semplicemente “indovinare il futuro”, ma accettare il compito cognitivo e morale di ragionare in modo trasparente, misurabile e responsabile sulle proprie scelte. In questo senso, la previsione non è un esercizio di divinazione, ma una pratica deliberativa che qualifica la qualità del giudizio collettivo.

Una delle implicazioni fondamentali del superforecasting riguarda la responsabilità epistemica: ogni volta che un decisore – un leader politico, un funzionario pubblico, un analista – avanza una previsione implicita (es. “questa riforma funzionerà”, “non ci sarà una guerra”, “il mercato reagirà positivamente”), dovrebbe essere in grado di esplicitare la base di quella previsione, il grado di confidenza associato e i dati su cui si fonda. Solo così si può rendere il dibattito pubblico meno retorico e più controllabile sul piano empirico.

Questo tipo di trasparenza predittiva ha una valenza profondamente democratica: sottrae il giudizio esperto all’arbitrio dell’autorità e lo restituisce a una logica di confronto, revisione e falsificabilità. La previsione, in questo contesto, diventa un modo per strutturare il disaccordo in modo produttivo: non più “io ho ragione, tu hai torto”, ma “quale ipotesi ha maggiore probabilità di essere confermata, e su quali basi?”

Anche sul piano strategico, le implicazioni sono rilevanti. Nei contesti ad alta posta – dalla sicurezza internazionale alla gestione delle risorse, dalle politiche sanitarie alla crisi climatica – la capacità di fare previsioni accurate, umili e aggiornabili può migliorare non solo l’efficacia, ma anche la legittimità delle scelte pubbliche. Invece di affidarsi a narrazioni totalizzanti o visioni ideologiche, un buon decisore dovrebbe promuovere una cultura della previsione riflessiva, in cui le ipotesi sono formulate con chiarezza, testate empiricamente e continuamente aggiornate.

Infine, c’è un elemento di riforma organizzativa. Il modello del superforecasting può essere integrato nei processi decisionali attraverso unità di previsione interna, esercizi di red teaming, simulazioni di scenario, tornei predittivi e revisioni bayesiane dei piani. Organizzazioni complesse – pubbliche o private – possono così dotarsi di una “seconda voce” strutturale, meno soggetta all’entusiasmo, all’inerzia o all’autorità carismatica. In questo senso, prevedere meglio diventa sinonimo di decidere in modo più robusto.

Superforecasting propone dunque una filosofia pratica della decisione: non l’illusione di controllare il futuro, ma la volontà di esporsi consapevolmente all’incertezza con strumenti migliori. In un mondo attraversato da crisi sistemiche e informazioni contraddittorie, saper prevedere in modo umile e misurabile è una delle forme più mature di intelligenza pubblica.

Conclusione – L’umiltà cognitiva come metodo

Nel cuore di Superforecasting c’è una tesi tanto controintuitiva quanto potente: non serve prevedere perfettamente il futuro per migliorare radicalmente il presente. Serve, piuttosto, una disciplina del giudizio, una cultura del dubbio, una pratica di responsabilità cognitiva. Philip Tetlock e Dan Gardner ci mostrano che la previsione non è una profezia, ma una forma di apprendimento continuo: un processo in cui si osserva, si ipotizza, si misura, si sbaglia e si corregge – sistematicamente, umilmente, con metodo.

Questa impostazione rappresenta una svolta epistemologica rispetto a molte delle posture dominanti nelle società dell’informazione: l’arroganza della certezza, la seduzione della narrazione, la paura dell’ambiguità. I superforecaster non negano l’incertezza, ma la abitano con strumenti migliori. Pensano in probabilità, scrivono ciò che credono, documentano i loro errori. Non promettono il futuro: lo esplorano con rispetto e rigore.

In un mondo attraversato da crisi complesse e da informazioni sovrabbondanti, questo approccio non è solo utile: è necessario. Significa sostituire il dogmatismo con la tracciabilità, l’intuizione con la verifica, la reattività con la pazienza analitica. Significa, in definitiva, introdurre una forma di etica epistemica nei processi decisionali – individuali, collettivi, istituzionali.

Per chi desidera approfondire, si consigliano:

  • Expert Political Judgment (Philip E. Tetlock) – lo studio fondativo sul fallimento predittivo degli esperti;
  • The Signal and the Noise (Nate Silver) – sulla differenza tra rumore e informazione nelle previsioni;
  • Thinking in Bets (Annie Duke) – sul pensiero probabilistico come stile di vita cognitiva;
  • Risk Savvy (Gerd Gigerenzer) – su come ragionare meglio in condizioni di incertezza;
  • How to Measure Anything (Douglas Hubbard) – sull’applicazione quantitativa della previsione in business e policy.

Pensare come un superforecaster significa, in ultima analisi, riconoscere che l’intelligenza più utile non è quella che ha sempre ragione, ma quella che sa sbagliare bene. E in questo, c’è forse la lezione più preziosa del libro.

SIMONE PAZZAGLIA