Un nuovo partito in Bosnia si avvale della scienza della complessità, delle simulazioni e dell’intelligenza artificiale per formulare il suo programma

Un articolo pubblicato su Quartz racconta di come in Bosnia-Erzegovina il nuovo partito Platforma za progres (Piattaforma per il progresso) si proponga di usare la scienza della complessità per affrontare i gravi problemi che il paese fronteggia, dalla disoccupazione, al declino demografico, alla corruzione. Sono perfettamente consapevole dei rischi che comporta un approccio come questo, tecnocratico e soltanto apparentemente neutro. Eppre sono da sempre affascinato da questa prospettiva tecnocratica (già dai tempi in cui negli anni Sessanta a Milano si presentò alle elezioni, o almeno tappezzò la città di manifesti, un Partito T-tecnica, fantomatico nel senso che non ne ho trovato traccia neppure sul web: qualcuno se ne ricorda?).

Qui l’articolo nell’originale da Quartz: A new party wants computer science to break Bosnia’s political deadlock — Quartz

Traduco qualche stralcio dell’articolo utilizzando DeepL:

[…] Platforma za progres è alla ricerca di soluzioni che utilizzano la scienza della complessità, un ramo di ricerca che sfrutta la tecnologia informatica per cercare di capire come interagiscono i sistemi, al fine di prevedere i processi sociali e far progredire le politiche.

[…]

Ma applicare l’informatica per cercare di risolvere alcuni dei problemi sociali più persistenti e pressanti del paese richiederà di rispondere prima ad alcune domande etiche e pratiche.

[…]

Uno dei principali metodi con cui Hadžikadić [il leader del partito] ha lavorato è la modellazione basata sugli agenti, che comporta l’esecuzione di interazioni simulate al computer tra i cosiddetti “agenti”, unità nello spazio simulato, dotate di caratteristiche diverse e progettate per agire e interagire come gli esseri umani. I loro ambienti virtuali sono attentamente sviluppati da scienziati sociali, psicologi e ricercatori per testare le potenziali reazioni al cambiamento.

La modellazione basata su agenti è come guardare i pesci in uno stagno. Si può vedere come i pesci interagiscono, ma anche le increspature sulla superficie dell’acqua create da tale interazione, e come queste azioni secondarie influenzano l’ambiente. Gli analisti possono usare questi risultati per chiedersi: quali leve del mondo reale possono essere utilizzate per influenzare la politica verso la pace? In che modo le parti costitutive di una città – dalle infrastrutture, alle istituzioni, alle persone – interagiscono e si influenzano a vicenda?

Ad esempio, l’Institute for New Economic Thinking dell’Università di Oxford e la Bank of England hanno utilizzato la modellazione basata sugli agenti per condurre ricerche sul mercato immobiliare britannico. I risultati sono usati dalla Banca d’Inghilterra per analizzare “scenari what-if e per prevedere l’effetto più probabile di possibili politiche macroprudenziali”, scrivono i ricercatori.

Visualizzazioni come queste, supportate da dati, offrono approfondimenti sul funzionamento dei processi sistemici e forniscono un modo per prevedere gli sviluppi e guidare le politiche verso risultati positivi. Tali modelli partono da un microlivello, che riflette gli individui che compongono un sistema. Il comportamento di ogni “agente” conta.

Elizabeth von Briesen, una delle studentesse di dottorato di Hadžikadić dell’UNC Charlotte, guarda alle dinamiche del genocidio nel tentativo di anticipare meglio le pressioni sociali che portano a risultati così disastrosi. Con la modellazione basata sugli agenti, “possiamo attivare e disattivare diverse caratteristiche, mappare le emozioni e le crescenti tensioni, e monitorare il cambiamento delle dimensioni della popolazione. Quello che facciamo è cercare soglie che rendano più probabile la pace”, dice von Briesen.

Stefan Thurner, presidente del Complexity Science Hub Vienna, un istituto di ricerca pionieristico che utilizza la scienza della complessità per affrontare questioni che vanno dal cambiamento climatico, all’urbanizzazione, all’energia, ritiene che questo tipo di modellizzazione sarà sempre più comunemente usato dai decisori mondiali. “È molto probabile che in un futuro non così lontano, tutte le decisioni politiche saranno almeno in qualche modo supportate da modelli basati su agenti”, dice Thurner.

[…]

Oltre alla modellazione basata sugli agenti, ci si baserà sulle statistiche e sull’apprendimento automatico. L’intelligenza artificiale sarà utilizzata per comprendere i modelli di comportamento e rilevare le regolarità all’interno dei dati, spiega Hadžikadić. Il team di analisi spera di fornire informazioni dettagliate su altre questioni della società bosniaca, come l’instabilità dell’economia, gli sconvolgimenti nazionalistici, il declino della popolazione e l’alto grado di corruzione.

[…]

Tuttavia, la raccolta di dati per prevedere i processi sociali può essere pericolosa, soprattutto in considerazione del modo opaco in cui è stata utilizzata in altre elezioni in tutto il mondo. Quando si fanno queste simulazioni, ci sono centinaia, a volte migliaia di decisioni da prendere, spiega Thurner. Se una delle ipotesi è sbagliata, il risultato potrebbe essere completamente fuorviante. Quindi i risultati devono essere considerati con grande cautela.

Per migliorare l’applicabilità dei loro modelli, i ricercatori cercano di sostituire tutte le ipotesi con dati solidi – un approccio che Platforma za progres afferma di seguire.

Hadžikadić dice che il suo gruppo sta lavorando solo con un piccolo numero di analisti selezionati, cifrando i dati per proteggerli dall’intrusione e usandoli solo per rispondere a domande specifiche. Dato il grado di abuso dei dati da parte delle aziende e dei governi di tutto il mondo, potrebbe essere necessario affrontare anche lo scetticismo dei critici.

[Tradotto con DeepL]

Istat – Le prospettive per l’economia italiana nel 2019

Ieri, 22 maggio 2019, l’Istat ha pubblicato le sue prospettive per l’economia italiana nel 2019.

Immediatamente, il mondo dei social media si è diviso in due schieramenti contrapposti (chiamarle scuole di pensiero sarebbe fare torto al pensiero):

  • quelli che hanno scritto – per tutti Giuseppe Turani su Facebook, che cita l’Ansa – “L’Istat taglia le stime sul Pil: nel 2019 crescita a +0,3%. Precedenti previsioni vedevano un Prodotto interno lordo a +1,3%”, sottolineando che l’Istituto nazionale di statistica è ora più pessimista che in passato e dunque (implicitamente, e non voglio assolutamente fare il processo alle intenzioni di Turani) che l’economia sta andando male (anche) per responsabilità dell’attuale governo. Questo schieramento iscrive quindi l’Istat nel campo di quelli che criticano la politica economica del governo (sempre implicitamente, ma queste raffinatezze tendono a scomparire nella comunicazione veloce e sintetica dei social media);
  • quelli che invece hanno scritto – qui cito Marco Congiu su Twitter, con un tweet che nel momento in cui scrivo ha totalizzato 834 retweet e 2894 like – “Il governo nomina all’Istat un nuovo presidente, e dopo tre mesi l’Istituto dà previsioni di crescita economica superiori a quelle dell’OCSE, del FMI, della Commissione UE… e dello stesso governo. Buffo, eh?”, sottolineando (questa volta esplicitamente) che la previsione dell’istituto è più ottimista di quella di altri autorevoli previsori e quindi presentandoci un Istituto nazionale di statistica filogovernativo (tutto? soltanto nel suo nuovo presidente, che si immagina intento a diramare direttive cui tutta la catena gerarchica e il personale obbediscono senza fiatare?).

Due letture diametralmente opposte: possibile? E c’è un modo per stabilire quale è corretta?

Possibile sì, perché si confronta la previsione di crescita del Pil dello 0,3% nel 2019 (che nessuna delle parti mette in discussione) con due cose completamente diverse.

Nel primo caso, il confronto è con la previsione effettuata dall’Istat in precedenza: quasi esattamente 6 mesi fa, il 21 novembre 2018. Il contesto internazionale appariva all’epoca radicalmente diverso da quello che si è poi realizzato nel periodo successivo. L’Istat (come la maggior parte degli osservatori) era ben consapevole dei rischi connessi a un’evoluzione meno favorevole della congiuntura, tanto da scrivere nel comunicato stampa che accompagnava la nota su Le prospettive per l’economia italiana nel 2018-2019:

L’attuale scenario di previsione è caratterizzato da alcuni rischi al ribasso rappresentati da una più moderata evoluzione del commercio internazionale, da un aumento del livello di incertezza degli operatori e dalle decisioni di politica monetaria della Banca Centrale Europea.

I rischi paventati si sono realizzati e la nuova previsione tiene conto del peggioramento del quadro internazionale, come la nuova nota dell’Istat documenta. Ma oltre agli elementi internazionali, ci sono anche componenti interne del rallentamento della crescita? E possono essere imputati alle politiche economiche del governo? La risposta è certamente affermativa (basta il buon senso a capirlo) ma non sufficiente. La domanda corretta sarebbe “in che misura?” e questo è estrememente difficile da quantificare: la nota dell’Istat richiama, con estrema cautela, gli elementi in gioco e i possibili nessi causali e poi ci presenta – come si usa – i risultati del suo modello econometrico di previsione.

E questo ci introduce alla seconda posizione, quella di chi ci fa notare che la previsione dell’Istat (Pil +0,3%) è superiore a quelle della Commissione europea (+0,1% nella previsione di primavera di qualche giorno fa), del Fondo monetario internazionale (+0,1% previsto circa un mese fa, con un taglio rispetto a sei mesi prima del tutto comparabile con quello effettuato dall’Istat) e dell’Ocse (0,0%, di pochi giorni fa). Un paio di mesi fa, un articolo di Andrea Carli su Il sole-24 ore (Pil, tutte le previsioni per il 2019. L’istantanea dell’Italia «ferma») registrava previsioni comprese tra -0,2% (Ocse) e +0,6% (Banca d’Italia e Fondo monetario internazionale). In mezzo tutto il gruppo: le agenzie di rating, l’ufficio parlamentare di bilancio, il centro studi Confindustria, … Due le cose da sottolineare: le revisioni sono continue, a seconda del momento in cui sono formulate, e il campo di variazione è piuttosto ampio (8 decimi di punto percentuale).

Questo è il punto essenziale: si tratta in tutti questi casi di previsioni elaborate con modelli econometrici. Senza entrare nei tecnicismi, va detto: che i modelli econometrici sono diversi per struttura (che a sua volta riflette ipotesi teoriche specifiche), che i loro coefficienti sono basati su serie storiche (cioè sostanzialmente sul comportamento del sistema economico nel passato) e che i risultati dipendono dalle ipotesi formulate per le variabili esogene (che, al di là del gergo degli econometrici, riflettono ipotesi che sono il punto di partenza e la base della simulazione – gli input e gli scenari del modello – e non i suoi risultati – gli output). A onor del vero, a differenza di molti altri previsori, l’Istat rende pubblica la struttura del modello nella nota metodologica che accompagna le prospettive per l’economia italiana nel 2019. Ad esempio:

Il modello è sviluppato a partire da un input di 142 serie storiche di base a frequenza annuale riferite ad un periodo temporale che va dal 1970 al 2017. Il processo di stima del modello genera in tutto 222 variabili, di cui 157 endogene (66 stocastiche e 91 identità) e 65 esogene (di cui 9 di scenario).

Spero di essere stato sufficientemente chiaro, e mi perdonino i tecnici le molte semplificazioni.

Succo del discorso: queste prospettive che l’Istat formula e pubblica ogni 6 mesi sono il risultato di un processo ben diverso da quello che periodicamente porta l’Istat a “certificare” (come amano dire i quotidiani e le televisioni) l’andamento del Pil e delle altre variabili di contabilità nazionale (stima flash, conti trimestrali, conti dei settori istituzionali e soprattutto, a marzo e settembre, prodotto interno lordo, indebitamento netto e saldo primario delle Amministrazioni pubbliche). Le prime sono il risultato di un esercizio di stima econometrica, le seconde la sintesi di un processo statistico, che parte dai dati raccolti dall’Istat e li inquadra nel rigoroso contesto dei conti economici nazionali.

Che l’Istat svolga entrambe queste attività è una possibile fonte di confusione? C’è il rischio che i cittadini confondano i dati di contabilità nazionale (il più recente, relativo all’andamento del Pil nel primo trimestre del 2019 – +0,1% rispetto allo stesso trimestre del 2018 – è stato pubblicato il 30 aprile 2019) con le previsioni del modello econometrico MEMo-It?

Io temo di sì. Una parte della responsabilità è delle strutture della comunicazione (sia di quelle dell’Istat, sia delle agenzie di stampa, sia dei commentatori che spesso riportano la notizia in modo acritico e semplificato – mia personale opinione e quindi risparmiatemi repliche stizzite su come tutte queste strutture facciano un lavoro fantastico, al di sopra di ogni critica). Ne è un esempio il lancio dell’Ansa che ho riportato all’inizio: “L’Istat taglia le stime sul Pil”, ambiguo perché anche quelle di contabilità nazionale sono stime. Tanto è vero che il comunicato stampa del 30 aprile esordiva così: “Nel primo trimestre del 2019 si stima che il prodotto interno lordo (Pil) … sia aumentato … dello 0,1% in termini tendenziali”.

Ma sarebbe ingeneroso prendersela con chi svolge un lavoro importante di intermediazione tra i ricercatori nei settori di produzione dell’Istat e i cittadini.

Temo che ci sia un problema più di fondo. Il duplice ruolo che l’Istat svolge – di unico produttore ufficiale dei conti economici nazionali, rilevanti tra l’altro per i famosi parametri di Maastricht, e di uno (tra tanti) dei previsori delle grandezze fondamentali dell’economia italiana – è fonte di per sé di confusione.

Personalmente, sono dell’opinione (e lo sono da tempo) che questa confusione dei ruoli sia perniciosa. Che tutti gli sforzi per tenere distinte queste due attività (di cui va dato atto all’Istat e ai suoi dirigenti) si infrangano di fronte all’oggettiva difficoltà a comunicare questa distinzione, soprattutto in una situazione in cui i messaggi sono brevi, frenetici, sovrapposti in rapida successione e spesso branditi come armi nell’agone politico.

La mia modesta proposta (ma forse dovrei derubricarla a sommesso auspicio) è che l’Istat si ritiri dal terreno delle previsioni: ci sono abbastanza soggetti, anche istituzionali, che lo fanno. Del resto, le previsioni non sono nelle tradizioni (ultranovantennali) dell’Istat: sono state formulate per la prima volta 7 anni fa, il 22 maggio 2012. All’inizio della nota (Le prospettive per l’economia italiana nel 2012-2013) si dava questa motivazione:

Nel 2010 è stata disposta la soppressione dell’Istituto di Studi e Analisi Economica e il conseguente trasferimento delle relative funzioni all’Istat, ivi comprese quelle di previsione. Per svolgere tale compito è stato realizzato un nuovo modello econometrico, utilizzato per effettuare le
previsioni qui presentate.

Non una motivazione strategica o metodologica forte, dunque, ma la conseguenza di una contingenza (sia pure importante): una scelta che nulla vieta di rivedere alla luce della nuova situazione.

La pausa del pranzo (metadati 9)

Tre muratori, seduti su un muretto, addentano un panino a ora di pranzo. Una signora si ferma a chiacchierare:

– Che cosa fate da queste parti?, chiede.

Il primo, tutto ingrugnato, risponde:

– Metto un mattone sopra un altro maledetto mattone, lo fisso con la malta, e così per otto ore.

– E tu?, domanda la signora al secondo.

– Costruisco un muro, le dice quello semplicemente, con un sorriso sulle labbra.

– E tu?, chiede al terzo.

Quello si alza in piedi, e riempiendosi d’orgoglio, dice: – Erigo una cattedrale!

* * *

Una risposta diversa per ogni punto di vista e per ogni livello d’analisi: così funziona il nostro cervello, e così funziona l’analisi statistica.

La storia l’ho trovata qui.

I numeri portano sempre dolore

Togliti di mezzo, Matrix. Hai fatto il tuo tempo.

La profonda realtà dei numeri, quanto essi contribuiscano a tessere le nostre esistenze, quanto – per quanto dolorosa – la sensibilità ai numeri e la conoscenza quantitativa contribuiscano a farci umani: tutto questo è raccontato, con grandissima poesia, nei 9 minuti di questo film del regista ceco Robert Hloz girato in Corea.

Guardatelo con attenzione.

Mi ringrazierete.

Quando i giornali parlano di scienza a sproposito, di chi è la responsabilità?

Se lo chiede David Spiegelhalter, un professore di statistica che dirige il Winton programme for the public understanding of risk dell’Università di Cambridge e di cui abbiamo già parlato in questo blog, qui e qui.

understandinguncertainty.org

Leggi il seguito di questo post »

L’uovo di Galileo e il gesuita strapazzato

Il brano è uno dei più famosi del Saggiatore di Galileo Galilei, ma l’idea di scherzarci sopra e di cimentarmi nella parafrasi in italiano moderno dell’italiano secentesco del nostro è per me una tentazione troppo forte (come Oscar Wilde, «I can resist everything except temptation»).

wikimedia.org/wikipedia/commons

Leggi il seguito di questo post »

L’abbecedario dei diagrammi | FlowingData e Virtual Beauty

Questo video, che ho trovato su FlowingData, ma concepito da Jane Nisselson, la fondatrice e l’anima di Virtual Beauty, è l’aperitivo a un più vasto progetto sui diagrammi. È così bello che non posso evitare di segnalarvelo e di consigliarvi vivamente di interiorizzarlo e farlo vostro. Aiuterà il vostro senso critico a distinguere i diagrammi e i grafici vistosi ma inutili e sbagliati (sono onnipresenti), da quelli utili e belli (anzi: utili e perciò belli). Sono 3′ e 19″: più di un singolo spot televisivo, ma meno di una di quelle raffiche di spot che ti sparano nel prime time:

Ed ecco come lo commenta la stessa Jane Nisselson sul sito di Virtual Beauty:

Diagrams are everywhere — from the established conventions of highway signs to the newly emerging visualizations appearing on social networking websites.  Most people have a personal experience of diagrams whether drawing directions or figuring out how to operate a new computer. Yet very few people are familiar with how we read or construct diagrams.

This short film introduces the language of diagrams and their role in visual thinking and communication. As only a film can do, it reveals the vocabulary “in the wild” and in the context of making and using diagrams.

This pilot film is intended as a teaser for a larger examination diagrams — from patent offices and computer-produced assembly instructions to data visualizations and MRIs. Diagrams are an ideal subject for a popular film on a scientific topic because they are both accessible and ubiquitous, providing a great vehicle for initiating a broad public to an essential tool of communication and creativity across all disciplines in science and engineering.

Distinction: Visionary Grant award 2009, Gordon Research Conference, as part of The Scripps Research Institute’s Visualization in Science and Education Grant from NSF. Principal Investigator: Professor Jeff Nickerson of the Stevens Institute of Technology. The award is intended to seed new interdisciplinary research.

Presentation: Gordon Research Conference on Visualization in Science & Education (July 10-15, 2011).

The film is based on “Visualizing Thought” by Barbara Tversky. Published in “Topics in Cognitive Science” Volume 3, Issue 3, pages 499–535, July 2011.

Film Credits: Soundtrack: Pat Irwin. Edit: Alex Bingham. Camera: Claudia Christensen, Oren Eckhaus, Brian Jackson, Sean Sigler, Ian Vollmer.

Resto in attesa del seguito del progetto e vi terrò informati.