Teoria e dati. Il ruolo dei modelli

Ha 60 anni la farfalla che batteva le ali e, con questo piccolo movimento, poteva provocare un tornado. Ormai l’effetto farfalla e la teoria del caos hanno cambiato il senso comune, anche nel modo di parlare. L’ideatore della metafora della farfalla, il meteorologo statunitense Edward Lorenz (1927- 2008), per studiare i movimenti dell’atmosfera terrestre, costruì un modello matematico a partire dalle equazioni della fluidodinamica usando un sistema con solo tre variabili, il minimo per avere comportamenti non periodici. Ottenne così un modello, apparentemente innocuo, di tre equazioni differenziali (in meteorologia e nelle scienze applicate il numero di equazioni di un modello è solitamente molto maggiore). Le equazioni del modello di Lorenz non sono lineari e questo permette un comportamento caotico ossia una forte sensibilità della soluzione rispetto a un cambiamento nelle condizioni iniziali: basta un battito delle ali di una farfalle per scatenare un’iradiddio. L’importanza del modello di Lorenz del 1963 sta nell’aver mostrato la possibilità di comportamenti caotici anche in sistemi a bassa dimensionalità: la complessità dei fluidi turbolenti non dipende necessariamente dalla sovrapposizione di molti eventi elementari ma nasce dalla struttura non lineare delle equazioni. L’antesignano dei modelli matematici in meteorologia è stato l’inglese Lewis F. Richardson (1881-1953), un’originale figura di studioso, ingiustamente poco noto, che svolse gran parte della sua carriera fuori dal circuito accademico. Richardson era quacchero e pacifista e partecipò disarmato alla prima guerra mondiale come autista di ambulanze sul fronte francese. All’analisi delle cause dei conflitti internazionali e al modo per evitarli dedicherà tutta una serie di studi matematici. Cercando di capire quanto la lunghezza del confine comune influenzi la probabilità che due Paesi vicini entrino in guerra, studiò quanto questo confine è frastagliato, diventando l’antesignano della teoria dei frattali. In campo meteorologico, fu un pioniere dell’uso dei modelli matematici: comprese che era inattendibile basarsi sull’analogia con le rilevazioni meteo del passato e occorreva un approccio teorico. Negli anni Venti del secolo scorso gli strumenti di calcolo erano molto limitati e lui, per risolvere un sistema di equazioni differenziali alle derivate parziali di un suo modello per l’atmosfera, impiegò un migliaio di ore per calcolare a mano (!), o con rudimentali macchine da calcolo, le previsioni del tempo a 6 ore. Le previsioni di Richardson si rivelarono decisamente sbagliate perché, paradossalmente, il suo modello era troppo accurato in quanto considerava anche fenomeni fisici irrilevanti in ambito meteorologico e la cosa aveva conseguenze pratiche negative per lo studio numerico. È sempre degli anni Venti il famoso modello preda-predatore di Lotka-Volterra, dal nome dei due studiosi che lo formularono indipendentemente. Vito Volterra (1860-1940) lo elaborò su sollecitazione del biologo e zoologo Umberto D’Ancona (suo futuro genero) che era rimasto sorpreso dalle statistiche che documentavano come negli anni del conflitto mondiale nel pescato dei porti dell’Adriatico fosse aumentata la percentuale dei pesci predatori. Non capiva come la minor attività di pesca, dovuta alla guerra, avesse potuto distinguere tra prede e predatori e favorito questi ultimi. Il modello di Volterra si basa sull’analogia tra l’interazione prede-predatori e gli urti degli atomi nella teoria cinetica. In mancanza di predatori, il numero delle prede crescerebbe esponenzialmente e analogamente, in assenza di prede, quello dei predatori decadrebbe esponenzialmente per la mancanza di cibo; la loro compresenza porta ad incontri tra prede e predatori, una parte dei quali si rivela mortale per le prede e favorevole ai predatori. Si arriva così a un sistema di due equazioni differenziali, la cui soluzione permette di capire che le fluttuazioni delle popolazioni dipendono sia da fattori esterni sia dalla competizione tra prede e predatori. Introducendo nel modello il fattore-pesca, Volterra riesce a rispondere al quesito del genero: si ha una diversa risposta di prede e predatori al fermo-pesca degli anni di guerra! La storia matematica del Novecento ha mostrato il ruolo insostituibile dei modelli. Non è esagerato dire che sono inevitabili e che senza di essi non c’è possibilità di vera scienza. Viene in mente il matematico ungherese Alfred Renyi con il suo Dialogo sulle applicazioni della matematica del 1965: Archimede, che con gli specchi ustori aveva sconfitto la flotta romana, spiega al re Gerone il ruolo dei modelli. La loro costruzione parte da un problema concreto che è quasi sempre troppo articolato. Bisogna allora semplificarlo scegliendo una via opportuna: “Poiché per lo stesso problema si possono costruire molti modelli matematici, prima di tutto si deve scegliere il più appropriato, quello che si accorda in modo migliore con la realtà come gli scopi pratici richiedono. Allo stesso modo non deve essere troppo complicato, ma ancora trattabile matematicamente. Ovviamente queste sono richieste contrastanti e in genere è necessario trovare un delicato bilancio tra le due. Occorre approssimare bene la situazione reale in tutti gli aspetti importanti per lo scopo, ma lasciare fuori tutto quello che non è veramente importante per il problema. Un modello non deve essere simile in ogni aspetto alla realtà, solo in quelli che veramente contano. Anche un modello matematico molto approssimato ci può aiutare a capire meglio la situazione pratica. Questo perché nel tentativo di costruire un modello siamo costretti a pensare a tutte le possibilità logiche, definire in modo non ambiguo tutti i concetti, e distinguere tra i fattori importanti e quelli secondari“. Non esiste un metodo generale da seguire nella costruzione di un modello. Bisogna anzitutto scegliere le variabili “giuste”, quelle che nelle parole di Archimede/Renyi catturano gli aspetti rilevanti del problema. Poi, per queste variabili, occorre “inventarsi” la struttura delle equazioni che ne determinano il comportamento; se si hanno a disposizione delle serie storiche sufficientemente lunghe, si può sperare di proiettare sul futuro l’andamento delle variabili “giuste” a partire dal passato. Negli ultimi decenni i modelli hanno visto la comparsa sulla scena dei big data. L’espressione ancora non era popolare quando nel 2008 Chris Anderson, direttore dell’influente rivista di tecnologia Wired, pubblicò un articolo che annunciava senza mezzi termini la fine della scienza teorica dato che il diluvio dei dati stava rendendo obsoleto il tradizionale metodo scientifico. L’articolo divenne il manifesto ideologico dell’entusiasmo data-centrico che pensa di fare a meno delle equazioni e secondo il quale lo studio teorico e i modelli matematici, che abbiamo visto all’opera con Richardson, Volterra e Lorenz, basati sulla costruzione e un’analisi (non sempre facile) delle equazioni differenziali, non svolgono più un ruolo fondamentale. La stessa identificazione delle variabili “giuste” non si basa più su una teorizzazione scientifica ma sui dati di cui disponiamo. Si analizzano attraverso sofisticati algoritmi di machine learning e permettono così di rinunciare al faticosissimo compito di costruire modelli teorici, a vantaggio della ben più agevole analisi delle correlazioni evidenziate dagli stessi algoritmi. Il tono è insomma quello di chi finalmente ha il coraggio di affermare che il re è nudo e di scrollarsi di dosso un impiccio anacronistico. Il tutto all’insegna di una semplificazione e di un’efficienza che ha sedotto buona parte della politica e dell’amministrazione pubblica, inclusa quella che si occupa delle politiche della ricerca e ne indirizza i finanziamenti: abbiamo accesso a montagne di tracce digitali lasciate per strada da miliardi di persone e a qualcosa questi dati dovranno pur servire! È una storia, questa dell’entusiasmo datacentrico, che sconfina nella cronaca e si sta sviluppando proprio in questi anni. Cosa dire dell’idea che non è più necessario studiare teorie generali ma è sufficiente raccogliere i dati da internet, cucinarli con il nostro computer con software scaricato dalla rete e avere così tutto quello di cui abbiamo bisogno? Cosa rispondere a chi sostiene che è nata una quarta metodologia scientifica, dopo quelle del metodo sperimentale, dell’approccio matematico e di quello computazionale delle simulazioni numeriche? Perlomeno che bisognerebbe essere decisamente cauti nelle previsioni di quanto accadrà prossimamente; prudenza basata su una serie di precisi risultati in parte ben noti da decenni. Molti insistono a dire che bastano le correlazioni per capire i fenomeni naturali e sociali, ma è difficile credere che il coefficiente di correlazione del 99,26 tra l’andamento dei divorzi nel Maine e il consumo pro-capite di margarina negli Stati Uniti sia significativo.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Dimensione massima del file: 50MB Formati consentiti: jpg, gif, png Drop file here