Dalla statistica alla simulazione

di Paolo di Marco

Introduzione

Decenni di successi tali da poter cambiare completamente il nostro rapporto col mondo e l’immagine che ne abbiamo: la scienza oggi sta su di un piedestallo molto alto ( anche se non sempre riconosciuto e ancor più raramente apprezzato).

Ma non è la stessa scienza delle origini. Tutto il dibattito che la Filosofia della Scienza ha sviluppato (con Popper e Feyerabend come estremi) rimane sfuocato rispetto all’effettivo divenire del suo soggetto, un percorso già intuito da un geniale Poincarè e poi maturato nel secondo dopoguerra.

E troppo poco se ne parla. Quindi cominciamo qui un discorso di approfondimento sul come effettivamente funziona oggi la scienza: non sul suo ‘esterno’, sui rapporti tra scienza e potere, ma direttamente sul suo ‘interno’, sul metodo scientifico oggi.

Parte 2:

4- l’uso della statistica

E’ opportuna a questo punto una digressione sul percorso di un esperimento, tornando a quel laboratorio di Fisica che culminava poi nell’esame chiamato familiarmente Fisichetta..(che oggi anche a Fisica fa parte delle reliquie abbandonate in angoli polverosi).

Quello che lì si impara è che non esistono risultati certi, ed aumentando la sensibilità degli strumenti aumenta anche la loro suscettibilità a cogliere segnali estranei, ’rumore’; quindi ogni esperimento parte con un’analisi delle effettive necessità di precisione e dei limiti della strumentazione disponibile, prosegue ripetendo le misure per un ‘congruo’ numero di volte, e si conclude con un calcolo statistico che fornisce due numeri: la media, che è il risultato che viene assunto come rappresentativo delle misure fatte, e l’errore medio, che ci dice quanto largo è l’intervallo di incertezza nella precisione.

Ma soffermiamoci un attimo su cosa ha significato sostituire il valore medio calcolato al valore misurato direttamente (agli albori della scienza -ma ancor oggi nella pratica degli artigiani- c’era la convinzione più o meno implicita che ci fosse un valore ‘vero’ e se ripetendo ‘per sicurezza’ la misurazione non si ripresentava esatto ci si lamentava degli ‘sbagli’) :

  • un primo effetto (anche se secondario) era l’aumento di precisione: se faccio una misura usando spanne e pollici e viene talvolta 3 pollici talvolta 4, con una media di 3,4 pollici, ho aumentato di un’ordine di grandezza la sensibilità del mio strumento (il che va bene se non mi spingo troppo in là…)
  • ma il secondo effetto è un salto ad un’altra dimensione: sostituiamo ad un valore sperimentale diretto il risultato di una procedura matematica (in questo caso l’algoritmo della media)

E questo passaggio ‘innocuo’ è però il primo gradino di una scala che talvolta porta a risultati imprevisti.

Su questa scala occupa un ruolo centrale un metodo di comprensione dei fenomeni prima sostanzialmente qualitatitivo poi sempre più quantitativo, che si giovava spesso anche della possibilità di visualizzare i risultati in forma grafica/di immagine: la simulazione.

Nata dalla matematica come mezzo per visualizzare il risutato di equazioni complesse in grado di rappresentare gli stati dinamici di un sistema, la crescita della potenza dei calcolatori e dei linguaggi di programmazione le ha fatto fare un salto di qualità spaziando in ambiti di ogni tipo, anche là dove non esistevano forme matematiche adeguate.

5- la simulazione

La simulazione ha una lunghissima storia, da quando per vedere il funzionamento di qualcosa se ne faceva un modellino; e secondo quello che si voleva studiare il modello aveva più o meno particolari/componenti dell’oggetto di studio: una leva corta corta, una macchinina con solo lo sterzo, una macchinina con solo un bollitore e una puleggia…

Oggi la simulazione non è più analogica ma numerica: si fa coi calcolatori. Ma l’impostazione è sempre la stessa: il primo passo è sempre la creazione di un modello del fenomeno/oggetto.

Un esempio risalente agli albori ci aiuterà a capirne il procedimento. Negli anni ’70 presentai (al Politecnico di Milano, Facoltà di Architettura) la tesi di Laurea di un mio allievo che si era posto l’obiettivo di studiare i flussi migratori all’interno delle regioni italiane dall’Unità fino ad allora; non si voleva fare tanto una descrizione quanto un’analisi che spiegasse le cause del fenomeno, partendo dalle ipotesi degli studiosi della questione meridionale e arrivando alle variabili minuziose descritte da sociologi ed economisti contemporanei.

Lo strumento dell’analisi era un programma (scritto al momento) che calcolava e rendeva graficamente la crescita della popolazione delle singole regioni italiane anno per anno dal 1870 al 1970, con un totale fatto dalla crescita endogena più le aggiunte o sottrazioni provocate dalle migrazioni da o verso le altre. Avevamo a disposizione i dati di tutto il periodo, da quelli demografici a quelli economici e sociali, ivi compreso l’andamento effettivo della popolazione in quegli anni. Si trattava di selezionare i dati forniti al modello/programma per vedere quali di questi influenzassero l’andamento rappresentando quello reale e quali invece fossero ininfluenti o non corrispondessero all’evoluzione effettiva. Di fatto abbiamo subito selezionato come causa il reddito delle regioni, e quindi come motore dello spostamento la differenza di reddito tra le regioni e quindi fatto girare il programma che simulava l’andamento della popolazione solo in base a questo (e al tasso demografico, che sapevamo però che a sua volta dipendeva da questo, diminuendo all’aumentare del reddito e all’inurbamento). La simulazione era costituita da quattro fasi:

  • una prima di taratura: si faceva girare il modello con diversi coefficienti finchè non riproduceva esattamente i dati del primo decennio
  • una seconda in cui si mantenevano fissi i coefficienti e si confrontava il modello con l’andamento reale: qui si è visto che la nostra variabile riproduceva pressochè perfettamente l’andamento reale delle diverse regioni
  • una terza in cui si aggiungevano altri parametri, constatando che erano però ininfluenti sull’andamento effettivo (e in questa si è però introdotta la dipendenza del tasso demografico dal reddito, eliminando di fatto tutti i fattori tranne il reddito)
  • una quarta in cui si usava il modello per fare previsioni sull’andamento futuro, dato che si era ormai raggiunta una fase di progressione stabile.

L’elemento interessante di questo modello era il suo carattere esplicativo, assai semplice ed immediato; soprattutto interessante se confrontato con una tendenza descrittiva come quella allora rappresentata da un modello della Banca d’Italia (M1B1) che simulava l’andamento dell’economia italiana usando una quantità enorme di parametri aggiustati mediante coefficienti ad hoc (quindi senza nessuna pretesa esplicativa e scarsissimo potere predittivo, dato che poteva bastare un cambiamento casuale in un coefficiente per far saltare tutta le previsioni ).

Emergono subito tre elementi centrali rispetto al metodo:

  1. la simulazione in questo caso è l’esperimento
  2. il risultato dipende dall’abilità non solo del ricercatore ma anche del programmatore, ma è determinante la ‘buona fede’: è facile truccare i coefficienti (soprattutto quando sono tanti) in modo da adattare il modello alla realtà (anche se in un intervallo molto limitato…poi salta tutto, ma per un poco può sembrare che vada tutto bene, la pubblicazione passa, i finanziamenti arrivano…)
  3. all’interno del modello ci sono elementi di opacità (variabili e coefficienti nascosti o poco visibili e poco dichiarati) che possono rendere ambigua o non sufficiente l’interpretazione.

Già nel campo della Fisica, e su questo torneremo, molti dei problemi e dei campi aperti della Fisica moderna rendono l’esperimento diretto (e spesso anche la simulazione) difficile o problematico o pressochè impossibile; ma è tanto più drammatica in un campo che influenza direttamente il potere e la società come l’Economia, dove assistiamo a parate di modelli nati da teorie già falsificate da decenni eppure riproposti come vergini oracolari e a simulazioni tanto raffinate matematicamente quanto metodologicamente fallaci ma pervicacemente riproposte e difese a spada tratta per la loro convenienza a sostenere interessi particolari.

Conviene qui ricordare uno degli elementi centrali dell’utilizzo della Matematica nelle varie discipline: come in ogni teorema matematico si formulano chiaramente le premesse poi da queste si deducono con la/una logica le conclusioni, così in ogni applicazione e tanto più in quelle sofisticate occorre definire e dichiarare chiaramente le premesse; compito che in economia e sociologia viene spesso allegramente dimenticato (si presuppongono la concorrenza perfetta, l’esistenza di una mano invisibile che equilibria domanda e offerta, che ogni soggetto abbia conoscenza perfetta delle condizioni di mercato e dei prezzi,…tanto per fare qualche esempio).

E in effetti chi voglia controllare una affermazione, o modello, o dichiarazione (comprese le frottole che girano spesso su internet) deve sempre chiedere due cose:

  • quali sono le premesse da cui parti
  • quali sono i dati che utilizzi

E anche per la ‘nuova Fisica’, quella che cerca di unificare Relatività e Quanti, le stesse domande sono fondamentali….

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *