Negazionismo Eurispes

Su molti quotidiani ha spicco la notizia che il 15,6% degli italiani (di almeno 18 anni, quasi 6 milioni di persone) ritiene che la Shoah (l’olocausto, lo sterminio degli ebrei per mano nazista) non sia mai avvenuta.

Sarebbe un dato preoccupante se fosse vero.Ma io non sono in grado di saperlo – e come me non sono in grado di saperlo neppure i ‘giornalisti’ che l’hanno riportata.

Spiego perché. La fonte della notizia è il 32° Rapporto Italia dell’Eurispes (un centro studi privato), presentato ieri per inviti nell’aula magna dell’università La Sapienza di Roma, che ha una capienza di poco più di 900 posti. Il Rapporto non è ancora disponibile sul sito di Eurispes. Quindi, chi ha dato la notizia ha riportato quanto ha sentito dire da chi ha presentato il Rapporto o, nella migliore delle ipotesi, quanto ha letto nella cartella stampa. Io, privato cittadino che non era presente all’evento, non sono nella condizione di poter verificare con esattezza né il modo in cui è presentata la notizia nel Rapporto, né la metodologia con cui è stata prodotta quella stima.

Però qualcosa so e lo posso dire. Alla base del Rapporto Eurispes c’è un’indagine campionaria. Le note metodologiche pubblicate dall’istituto per i precedenti Rapporti sono estremamente sintetiche (mezza paginetta, per capirci): si tratta di interviste ‘face to face’ (cioè con intervistatore) su quesiti a risposta chiusa (o semichiusa) su un campione rappresentativo per sesso, 5 classi d’età (18-24 25-34 35-44 45-64 65-oltre) e 5 ripartizioni geografiche (Nord-ovest Nord-est Centro Sud Isole). Per il 31° Rapporto, quello dell’anno scorso, i questionari analizzati erano stati 1.132.

Giusto per dare un’idea della dimensione del campione, le rilevazioni Istat dell’area sociale (quelle che affrontano temi analoghi a quelli trattati dall’Eurispes) hanno tipicamente un campione di 25-29.000 famiglie e circa 70.000 individui. Non occorre essere laureati in statistica per capire che l’affidabilità dei risultati è molto diversa!

Conclusioni che ne traggo (del tutto personali, s’intende, e basate su informazioni limitate):

  • il dato è preoccupante, ma forse non è attendibile (non c’è modo di valutarlo);
  • un istituto di ricerca privato riceve un sacco di pubblicità gratuita (nella meno sospettosa delle ipotesi);
  • i ‘giornalisti’ fanno il loro mestiere in modo dilettantistico e deontologicamente inadeguato (a dir poco);
  • l’AGCOM (Autorità per le garanzie nelle comunicazioni) non attua il Regolamento in materia di pubblicazione e diffusione dei sondaggi sui mezzi di comunicazione di massa (Delibera n. 256/10/CSP) che prevede “l’obbligo per il mezzo di comunicazione di massa di accompagnare la pubblicazione o diffusione di un sondaggio con la nota informativa indicante alcune informazioni essenziali, quali il soggetto realizzatore e quello committente, la consistenza numerica e l’estensione territoriale del campione utilizzato, il numero di coloro che non hanno risposto.” (ma è noto tra gli addetti ai lavori che questa norma prevede già al suo interno l’escamotage per disattenderla).
Pubblicato su Grrr!, Statistica. 2 Comments »

Un nuovo partito in Bosnia si avvale della scienza della complessità, delle simulazioni e dell’intelligenza artificiale per formulare il suo programma

Un articolo pubblicato su Quartz racconta di come in Bosnia-Erzegovina il nuovo partito Platforma za progres (Piattaforma per il progresso) si proponga di usare la scienza della complessità per affrontare i gravi problemi che il paese fronteggia, dalla disoccupazione, al declino demografico, alla corruzione. Sono perfettamente consapevole dei rischi che comporta un approccio come questo, tecnocratico e soltanto apparentemente neutro. Eppre sono da sempre affascinato da questa prospettiva tecnocratica (già dai tempi in cui negli anni Sessanta a Milano si presentò alle elezioni, o almeno tappezzò la città di manifesti, un Partito T-tecnica, fantomatico nel senso che non ne ho trovato traccia neppure sul web: qualcuno se ne ricorda?).

Qui l’articolo nell’originale da Quartz: A new party wants computer science to break Bosnia’s political deadlock — Quartz

Traduco qualche stralcio dell’articolo utilizzando DeepL:

[…] Platforma za progres è alla ricerca di soluzioni che utilizzano la scienza della complessità, un ramo di ricerca che sfrutta la tecnologia informatica per cercare di capire come interagiscono i sistemi, al fine di prevedere i processi sociali e far progredire le politiche.

[…]

Ma applicare l’informatica per cercare di risolvere alcuni dei problemi sociali più persistenti e pressanti del paese richiederà di rispondere prima ad alcune domande etiche e pratiche.

[…]

Uno dei principali metodi con cui Hadžikadić [il leader del partito] ha lavorato è la modellazione basata sugli agenti, che comporta l’esecuzione di interazioni simulate al computer tra i cosiddetti “agenti”, unità nello spazio simulato, dotate di caratteristiche diverse e progettate per agire e interagire come gli esseri umani. I loro ambienti virtuali sono attentamente sviluppati da scienziati sociali, psicologi e ricercatori per testare le potenziali reazioni al cambiamento.

La modellazione basata su agenti è come guardare i pesci in uno stagno. Si può vedere come i pesci interagiscono, ma anche le increspature sulla superficie dell’acqua create da tale interazione, e come queste azioni secondarie influenzano l’ambiente. Gli analisti possono usare questi risultati per chiedersi: quali leve del mondo reale possono essere utilizzate per influenzare la politica verso la pace? In che modo le parti costitutive di una città – dalle infrastrutture, alle istituzioni, alle persone – interagiscono e si influenzano a vicenda?

Ad esempio, l’Institute for New Economic Thinking dell’Università di Oxford e la Bank of England hanno utilizzato la modellazione basata sugli agenti per condurre ricerche sul mercato immobiliare britannico. I risultati sono usati dalla Banca d’Inghilterra per analizzare “scenari what-if e per prevedere l’effetto più probabile di possibili politiche macroprudenziali”, scrivono i ricercatori.

Visualizzazioni come queste, supportate da dati, offrono approfondimenti sul funzionamento dei processi sistemici e forniscono un modo per prevedere gli sviluppi e guidare le politiche verso risultati positivi. Tali modelli partono da un microlivello, che riflette gli individui che compongono un sistema. Il comportamento di ogni “agente” conta.

Elizabeth von Briesen, una delle studentesse di dottorato di Hadžikadić dell’UNC Charlotte, guarda alle dinamiche del genocidio nel tentativo di anticipare meglio le pressioni sociali che portano a risultati così disastrosi. Con la modellazione basata sugli agenti, “possiamo attivare e disattivare diverse caratteristiche, mappare le emozioni e le crescenti tensioni, e monitorare il cambiamento delle dimensioni della popolazione. Quello che facciamo è cercare soglie che rendano più probabile la pace”, dice von Briesen.

Stefan Thurner, presidente del Complexity Science Hub Vienna, un istituto di ricerca pionieristico che utilizza la scienza della complessità per affrontare questioni che vanno dal cambiamento climatico, all’urbanizzazione, all’energia, ritiene che questo tipo di modellizzazione sarà sempre più comunemente usato dai decisori mondiali. “È molto probabile che in un futuro non così lontano, tutte le decisioni politiche saranno almeno in qualche modo supportate da modelli basati su agenti”, dice Thurner.

[…]

Oltre alla modellazione basata sugli agenti, ci si baserà sulle statistiche e sull’apprendimento automatico. L’intelligenza artificiale sarà utilizzata per comprendere i modelli di comportamento e rilevare le regolarità all’interno dei dati, spiega Hadžikadić. Il team di analisi spera di fornire informazioni dettagliate su altre questioni della società bosniaca, come l’instabilità dell’economia, gli sconvolgimenti nazionalistici, il declino della popolazione e l’alto grado di corruzione.

[…]

Tuttavia, la raccolta di dati per prevedere i processi sociali può essere pericolosa, soprattutto in considerazione del modo opaco in cui è stata utilizzata in altre elezioni in tutto il mondo. Quando si fanno queste simulazioni, ci sono centinaia, a volte migliaia di decisioni da prendere, spiega Thurner. Se una delle ipotesi è sbagliata, il risultato potrebbe essere completamente fuorviante. Quindi i risultati devono essere considerati con grande cautela.

Per migliorare l’applicabilità dei loro modelli, i ricercatori cercano di sostituire tutte le ipotesi con dati solidi – un approccio che Platforma za progres afferma di seguire.

Hadžikadić dice che il suo gruppo sta lavorando solo con un piccolo numero di analisti selezionati, cifrando i dati per proteggerli dall’intrusione e usandoli solo per rispondere a domande specifiche. Dato il grado di abuso dei dati da parte delle aziende e dei governi di tutto il mondo, potrebbe essere necessario affrontare anche lo scetticismo dei critici.

[Tradotto con DeepL]

Istat – Le prospettive per l’economia italiana nel 2019

Ieri, 22 maggio 2019, l’Istat ha pubblicato le sue prospettive per l’economia italiana nel 2019.

Immediatamente, il mondo dei social media si è diviso in due schieramenti contrapposti (chiamarle scuole di pensiero sarebbe fare torto al pensiero):

  • quelli che hanno scritto – per tutti Giuseppe Turani su Facebook, che cita l’Ansa – “L’Istat taglia le stime sul Pil: nel 2019 crescita a +0,3%. Precedenti previsioni vedevano un Prodotto interno lordo a +1,3%”, sottolineando che l’Istituto nazionale di statistica è ora più pessimista che in passato e dunque (implicitamente, e non voglio assolutamente fare il processo alle intenzioni di Turani) che l’economia sta andando male (anche) per responsabilità dell’attuale governo. Questo schieramento iscrive quindi l’Istat nel campo di quelli che criticano la politica economica del governo (sempre implicitamente, ma queste raffinatezze tendono a scomparire nella comunicazione veloce e sintetica dei social media);
  • quelli che invece hanno scritto – qui cito Marco Congiu su Twitter, con un tweet che nel momento in cui scrivo ha totalizzato 834 retweet e 2894 like – “Il governo nomina all’Istat un nuovo presidente, e dopo tre mesi l’Istituto dà previsioni di crescita economica superiori a quelle dell’OCSE, del FMI, della Commissione UE… e dello stesso governo. Buffo, eh?”, sottolineando (questa volta esplicitamente) che la previsione dell’istituto è più ottimista di quella di altri autorevoli previsori e quindi presentandoci un Istituto nazionale di statistica filogovernativo (tutto? soltanto nel suo nuovo presidente, che si immagina intento a diramare direttive cui tutta la catena gerarchica e il personale obbediscono senza fiatare?).

Due letture diametralmente opposte: possibile? E c’è un modo per stabilire quale è corretta?

Possibile sì, perché si confronta la previsione di crescita del Pil dello 0,3% nel 2019 (che nessuna delle parti mette in discussione) con due cose completamente diverse.

Nel primo caso, il confronto è con la previsione effettuata dall’Istat in precedenza: quasi esattamente 6 mesi fa, il 21 novembre 2018. Il contesto internazionale appariva all’epoca radicalmente diverso da quello che si è poi realizzato nel periodo successivo. L’Istat (come la maggior parte degli osservatori) era ben consapevole dei rischi connessi a un’evoluzione meno favorevole della congiuntura, tanto da scrivere nel comunicato stampa che accompagnava la nota su Le prospettive per l’economia italiana nel 2018-2019:

L’attuale scenario di previsione è caratterizzato da alcuni rischi al ribasso rappresentati da una più moderata evoluzione del commercio internazionale, da un aumento del livello di incertezza degli operatori e dalle decisioni di politica monetaria della Banca Centrale Europea.

I rischi paventati si sono realizzati e la nuova previsione tiene conto del peggioramento del quadro internazionale, come la nuova nota dell’Istat documenta. Ma oltre agli elementi internazionali, ci sono anche componenti interne del rallentamento della crescita? E possono essere imputati alle politiche economiche del governo? La risposta è certamente affermativa (basta il buon senso a capirlo) ma non sufficiente. La domanda corretta sarebbe “in che misura?” e questo è estrememente difficile da quantificare: la nota dell’Istat richiama, con estrema cautela, gli elementi in gioco e i possibili nessi causali e poi ci presenta – come si usa – i risultati del suo modello econometrico di previsione.

E questo ci introduce alla seconda posizione, quella di chi ci fa notare che la previsione dell’Istat (Pil +0,3%) è superiore a quelle della Commissione europea (+0,1% nella previsione di primavera di qualche giorno fa), del Fondo monetario internazionale (+0,1% previsto circa un mese fa, con un taglio rispetto a sei mesi prima del tutto comparabile con quello effettuato dall’Istat) e dell’Ocse (0,0%, di pochi giorni fa). Un paio di mesi fa, un articolo di Andrea Carli su Il sole-24 ore (Pil, tutte le previsioni per il 2019. L’istantanea dell’Italia «ferma») registrava previsioni comprese tra -0,2% (Ocse) e +0,6% (Banca d’Italia e Fondo monetario internazionale). In mezzo tutto il gruppo: le agenzie di rating, l’ufficio parlamentare di bilancio, il centro studi Confindustria, … Due le cose da sottolineare: le revisioni sono continue, a seconda del momento in cui sono formulate, e il campo di variazione è piuttosto ampio (8 decimi di punto percentuale).

Questo è il punto essenziale: si tratta in tutti questi casi di previsioni elaborate con modelli econometrici. Senza entrare nei tecnicismi, va detto: che i modelli econometrici sono diversi per struttura (che a sua volta riflette ipotesi teoriche specifiche), che i loro coefficienti sono basati su serie storiche (cioè sostanzialmente sul comportamento del sistema economico nel passato) e che i risultati dipendono dalle ipotesi formulate per le variabili esogene (che, al di là del gergo degli econometrici, riflettono ipotesi che sono il punto di partenza e la base della simulazione – gli input e gli scenari del modello – e non i suoi risultati – gli output). A onor del vero, a differenza di molti altri previsori, l’Istat rende pubblica la struttura del modello nella nota metodologica che accompagna le prospettive per l’economia italiana nel 2019. Ad esempio:

Il modello è sviluppato a partire da un input di 142 serie storiche di base a frequenza annuale riferite ad un periodo temporale che va dal 1970 al 2017. Il processo di stima del modello genera in tutto 222 variabili, di cui 157 endogene (66 stocastiche e 91 identità) e 65 esogene (di cui 9 di scenario).

Spero di essere stato sufficientemente chiaro, e mi perdonino i tecnici le molte semplificazioni.

Succo del discorso: queste prospettive che l’Istat formula e pubblica ogni 6 mesi sono il risultato di un processo ben diverso da quello che periodicamente porta l’Istat a “certificare” (come amano dire i quotidiani e le televisioni) l’andamento del Pil e delle altre variabili di contabilità nazionale (stima flash, conti trimestrali, conti dei settori istituzionali e soprattutto, a marzo e settembre, prodotto interno lordo, indebitamento netto e saldo primario delle Amministrazioni pubbliche). Le prime sono il risultato di un esercizio di stima econometrica, le seconde la sintesi di un processo statistico, che parte dai dati raccolti dall’Istat e li inquadra nel rigoroso contesto dei conti economici nazionali.

Che l’Istat svolga entrambe queste attività è una possibile fonte di confusione? C’è il rischio che i cittadini confondano i dati di contabilità nazionale (il più recente, relativo all’andamento del Pil nel primo trimestre del 2019 – +0,1% rispetto allo stesso trimestre del 2018 – è stato pubblicato il 30 aprile 2019) con le previsioni del modello econometrico MEMo-It?

Io temo di sì. Una parte della responsabilità è delle strutture della comunicazione (sia di quelle dell’Istat, sia delle agenzie di stampa, sia dei commentatori che spesso riportano la notizia in modo acritico e semplificato – mia personale opinione e quindi risparmiatemi repliche stizzite su come tutte queste strutture facciano un lavoro fantastico, al di sopra di ogni critica). Ne è un esempio il lancio dell’Ansa che ho riportato all’inizio: “L’Istat taglia le stime sul Pil”, ambiguo perché anche quelle di contabilità nazionale sono stime. Tanto è vero che il comunicato stampa del 30 aprile esordiva così: “Nel primo trimestre del 2019 si stima che il prodotto interno lordo (Pil) … sia aumentato … dello 0,1% in termini tendenziali”.

Ma sarebbe ingeneroso prendersela con chi svolge un lavoro importante di intermediazione tra i ricercatori nei settori di produzione dell’Istat e i cittadini.

Temo che ci sia un problema più di fondo. Il duplice ruolo che l’Istat svolge – di unico produttore ufficiale dei conti economici nazionali, rilevanti tra l’altro per i famosi parametri di Maastricht, e di uno (tra tanti) dei previsori delle grandezze fondamentali dell’economia italiana – è fonte di per sé di confusione.

Personalmente, sono dell’opinione (e lo sono da tempo) che questa confusione dei ruoli sia perniciosa. Che tutti gli sforzi per tenere distinte queste due attività (di cui va dato atto all’Istat e ai suoi dirigenti) si infrangano di fronte all’oggettiva difficoltà a comunicare questa distinzione, soprattutto in una situazione in cui i messaggi sono brevi, frenetici, sovrapposti in rapida successione e spesso branditi come armi nell’agone politico.

La mia modesta proposta (ma forse dovrei derubricarla a sommesso auspicio) è che l’Istat si ritiri dal terreno delle previsioni: ci sono abbastanza soggetti, anche istituzionali, che lo fanno. Del resto, le previsioni non sono nelle tradizioni (ultranovantennali) dell’Istat: sono state formulate per la prima volta 7 anni fa, il 22 maggio 2012. All’inizio della nota (Le prospettive per l’economia italiana nel 2012-2013) si dava questa motivazione:

Nel 2010 è stata disposta la soppressione dell’Istituto di Studi e Analisi Economica e il conseguente trasferimento delle relative funzioni all’Istat, ivi comprese quelle di previsione. Per svolgere tale compito è stato realizzato un nuovo modello econometrico, utilizzato per effettuare le
previsioni qui presentate.

Non una motivazione strategica o metodologica forte, dunque, ma la conseguenza di una contingenza (sia pure importante): una scelta che nulla vieta di rivedere alla luce della nuova situazione.

La pausa del pranzo (metadati 9)

Tre muratori, seduti su un muretto, addentano un panino a ora di pranzo. Una signora si ferma a chiacchierare:

– Che cosa fate da queste parti?, chiede.

Il primo, tutto ingrugnato, risponde:

– Metto un mattone sopra un altro maledetto mattone, lo fisso con la malta, e così per otto ore.

– E tu?, domanda la signora al secondo.

– Costruisco un muro, le dice quello semplicemente, con un sorriso sulle labbra.

– E tu?, chiede al terzo.

Quello si alza in piedi, e riempiendosi d’orgoglio, dice: – Erigo una cattedrale!

* * *

Una risposta diversa per ogni punto di vista e per ogni livello d’analisi: così funziona il nostro cervello, e così funziona l’analisi statistica.

La storia l’ho trovata qui.

I numeri portano sempre dolore

Togliti di mezzo, Matrix. Hai fatto il tuo tempo.

La profonda realtà dei numeri, quanto essi contribuiscano a tessere le nostre esistenze, quanto – per quanto dolorosa – la sensibilità ai numeri e la conoscenza quantitativa contribuiscano a farci umani: tutto questo è raccontato, con grandissima poesia, nei 9 minuti di questo film del regista ceco Robert Hloz girato in Corea.

Guardatelo con attenzione.

Mi ringrazierete.

Quando i giornali parlano di scienza a sproposito, di chi è la responsabilità?

Se lo chiede David Spiegelhalter, un professore di statistica che dirige il Winton programme for the public understanding of risk dell’Università di Cambridge e di cui abbiamo già parlato in questo blog, qui e qui.

understandinguncertainty.org

Leggi il seguito di questo post »

L’uovo di Galileo e il gesuita strapazzato

Il brano è uno dei più famosi del Saggiatore di Galileo Galilei, ma l’idea di scherzarci sopra e di cimentarmi nella parafrasi in italiano moderno dell’italiano secentesco del nostro è per me una tentazione troppo forte (come Oscar Wilde, «I can resist everything except temptation»).

wikimedia.org/wikipedia/commons

Leggi il seguito di questo post »

L’abbecedario dei diagrammi | FlowingData e Virtual Beauty

Questo video, che ho trovato su FlowingData, ma concepito da Jane Nisselson, la fondatrice e l’anima di Virtual Beauty, è l’aperitivo a un più vasto progetto sui diagrammi. È così bello che non posso evitare di segnalarvelo e di consigliarvi vivamente di interiorizzarlo e farlo vostro. Aiuterà il vostro senso critico a distinguere i diagrammi e i grafici vistosi ma inutili e sbagliati (sono onnipresenti), da quelli utili e belli (anzi: utili e perciò belli). Sono 3′ e 19″: più di un singolo spot televisivo, ma meno di una di quelle raffiche di spot che ti sparano nel prime time:

Ed ecco come lo commenta la stessa Jane Nisselson sul sito di Virtual Beauty:

Diagrams are everywhere — from the established conventions of highway signs to the newly emerging visualizations appearing on social networking websites.  Most people have a personal experience of diagrams whether drawing directions or figuring out how to operate a new computer. Yet very few people are familiar with how we read or construct diagrams.

This short film introduces the language of diagrams and their role in visual thinking and communication. As only a film can do, it reveals the vocabulary “in the wild” and in the context of making and using diagrams.

This pilot film is intended as a teaser for a larger examination diagrams — from patent offices and computer-produced assembly instructions to data visualizations and MRIs. Diagrams are an ideal subject for a popular film on a scientific topic because they are both accessible and ubiquitous, providing a great vehicle for initiating a broad public to an essential tool of communication and creativity across all disciplines in science and engineering.

Distinction: Visionary Grant award 2009, Gordon Research Conference, as part of The Scripps Research Institute’s Visualization in Science and Education Grant from NSF. Principal Investigator: Professor Jeff Nickerson of the Stevens Institute of Technology. The award is intended to seed new interdisciplinary research.

Presentation: Gordon Research Conference on Visualization in Science & Education (July 10-15, 2011).

The film is based on “Visualizing Thought” by Barbara Tversky. Published in “Topics in Cognitive Science” Volume 3, Issue 3, pages 499–535, July 2011.

Film Credits: Soundtrack: Pat Irwin. Edit: Alex Bingham. Camera: Claudia Christensen, Oren Eckhaus, Brian Jackson, Sean Sigler, Ian Vollmer.

Resto in attesa del seguito del progetto e vi terrò informati.

Nate Silver, il vincitore morale delle elezioni americane

Non sono né Barack Obama né Mitt Romney i vincitori delle elezioni americane, ma Nate Silver, l’uomo che vedete fotografato qui sotto.

Nate Silver

salon.com

Nate Silver ha meno di 35 anni (li compie il 13 gennaio del 2013) e una laurea in economia. Dopo la laurea, ha lavorato per quasi 4 anni alla KPMG. Un lavoro che lo annoiava profondamente, tanto da indurlo a sviluppare – durante l’orario d’ufficio – un software per prevedere le prestazioni e la carriera dei giocatori di baseball, PECOTA. Baseball e statistica erano le sue passioni fin dall’infanzia. Licenziatosi dalla KPMG, Silver si è mantenuto giocando a poker online, seguendo la strada che prima di lui aveva già seguito un precursore delle teorie sulla probabilità, Gerolamo Cardano. Nel 2007 cominciò a occuparsi anche di previsioni politiche, dapprima con lo pseudonimo di Poblano. Nel marzo del 2008 iniziò il suo blog, FiveThirtyEight.com (538 sono i collegi che eleggono il presidente degli Stati Uniti) e il 30 maggio 2008 Poblano rivelò la sua vera identità ai lettori. Nell’elezione del 2008 azzeccò la previsione del candidato vincitore i 49 Stati su 50. Il 25 agosto 2010 Silver e il suo blog migrarono al New York Times.

Nonostante la maggiore incertezza della campagna presidenziale di quest’anno, la mattina del 6 novembre Silver arrivò a prevedere per Obama una probabilità di vittoria del 90,9%, suscitando non poco scetticismo. Invece, ha fatto ancora meglio di 4 anni fa, anche se gli altri osservatori davano come “in bilico ” il risultato di 9 Stati, azzeccando tutti e 50 gli Stati più il District of Columbia.

538 prediction

salon.com

Sto leggendo il suo libro, The Signal and the Noise e ve ne parlerò tra poco. Nel frattempo, godetevi questo clip in cui spiega (seriamente) il suo metodo:

Qui lo spiega all’interno di una trasmissione comica (dovete accontentarvi del link).

Si possono prevedere i risultati delle olimpiadi?

La risposta è certamente affermativa. Ma come? I modi possono essere innumerevoli, dal famoso polpo Paul alle previsioni ragionate degli economisti (che come noto sono in grado di prevedere razionalmente un risultato e il suo contrario).

Fabio Radicchi, un giovane fisico romano, ha applicato un modello statistico. Il post di Samuel Arbesman dove ho trovato la notizia (“Universal Laws at the Olympics and Predictions for 2012“, Wired Science Blogs: Social Dimension, 25 luglio 2012) colloca il lavoro di Radicchi nell’ambito delle spiegazioni matematiche delle performance umane, di cui riporta esempi riferiti agli anni Settanta e Ottanta (qui e qui). Studiare i limiti delle performance umane sotto il profilo statistico è particolarmente interessante (per uno statistico, va da sé), perché ci stiamo per definizione concentrando su una coda della distribuzione (quella degli atleti migliori; io sto in quell’altra, naturalmente), mentre la statistica dà il meglio di sé quando si parla di medie e di distribuzioni normali. Esiste però un’intera branca della statistica, la teoria dei valori estremi, che studia proprio questi aspetti.

Medaglie d'oro

wired.com

Il ragionamento di Radicchi è abbastanza semplice da spiegare (l’articolo “Universality, Limits and Predictability of Gold-Medal Performances at the Olympic Games” si può scaricare liberamente): si ipotizza che il miglioramento relativo dei record obbedisca a una legge universale e che tenda al raggiungimento di un valore limite. Radicchi usa il medagliere olimpico (in primo luogo le medaglie d’oro, ma anche quelle d’argento e di bronzo, per 3 motivi:

  1. sono disponibili osservazioni per oltre un secolo (i primi giochi dell’era moderna si disputarono nel 1896);
  2. i dati sono dettagliati e regolarmente distribuiti nel tempo (ogni 4 anni);
  3. nella stragrande maggioranza delle discipline, la performance del vincitore della medaglia d’oro approssima piuttosto fedelmente il miglior risultato conseguibile in quel momento storico, data la rilevanza e il prestigio della manifestazione.

Sulla base di queste premesse, l’articolo si propone:

  1. di mostrare che i miglioramenti della performance obbediscono a una legge universale;
  2. di stimare i valori limite del miglioramento di performance;
  3. di prevedere i risultati (in termini di performance) delle olimpiadi di Londra.

* * *

Per quanto riguarda il primo aspetto, Radicchi mostra che i miglioramenti relativi nella performance del vincitore della medaglia d’oro in due edizioni consecutive delle olimpiadi tende ad avvicinarsi a un valore limite e che i miglioramenti stessi (non le prestazioni in termini assoluti) sono distribuiti normalmente. Radicchi registra questa regolarità in 55 discipline olimpiche.

Vediamo qui l’esempio, piuttosto chiaro, dei 400 m piani maschili.

Radicchi 1

plosone.org

Nel primo quadrante della figura (a) si presenta la stima migliore del valore limite (il record insuperabile per i 400 m piani maschili è stimato in 41′ e 62 centesimi). La significatività statistica del risultato è molto elevata e il secondo e terzo quadrante (b e c) mettono a confronto la distribuzione normale teorica (in nero) con quella misurata da Radicchi sui risultati effettivi. Infine, nel quarto quadrante si vede che il risultato non dipende dalle particolari edizioni dei giochi olimpici e che la distribuzione è stazionaria.

I risultati conseguiti sono particolarmente importanti perché sono generalizzati, cioè applicabili a un numero elevato di discipline olimpiche. Radicchi li spiega così:

At each new edition of the Games, gold-medal performances get, on average, closer to the limiting performance value. The average positive improvement observed in historic performance data can be motivated by several factors: as time goes on, athletes are becoming more professionals, better trained, and during the season have more events to participate in; the pool for the selection of athletes grows with time, and, consequently there is a higher level of competition; the evolution of technical materials favors better performances. On the other hand, there is also a non null probability that winning performances become worse than those obtained in the previous edition of the Games (i.e., relative improvement values are negative). All these possibilities are described by a Gaussian distribution that accounts for various, in principle hardly quantifiable, factors that may influence athlete performances: meteorological and geographical conditions, athletic skills and physical condition of the participants, etc.

* * *

L’applicazione dello stesso modello e delle stesse procedure di stima a una pluralità di discipline olimpiche permette a Radicchi di determinare per ognuna il valore limite e, al tempo stesso, di stimarne la bontà. La validità del modello è riscontrata per l’intera gamma delle corse (dai 100 m alla maratona), per i record che riguardano la distanza e l’altezza (i diversi tipi di salto in lungo e in alto) e nel nuoto.

Nella figura qui sotto qualche esempio: Per la maratona il limite è stimato in 5771,44 secondi (1h36’11” e 44 centesimi), per il salto in alto femminile in 8,12 m, per i 100 m maschili e femminili rispettivamente in 8,28″ e 9,12″.

radicchi 2

plosone.org

* * *

Infine, ecco le previsioni dei risultati in alcune discipline per Londra 2012, come emergono da modello di Radicchi:

Radicchi 3

plosone.org