Le previsioni dei meteorologi privati sono distorte?

Ieri (16 novembre 2012) la Repubblica ha pubblicato un’inchiesta di Ettore Livini, “Il gran business del tempo che fa. Guerra di bollettini nel meteo show“. Articolo interessante e ambizioso, che cerca di tenere fede allo standard proposto dal compianto Giuseppe D’Avanzo, posto a epigrafe del sito che la Repubblica e L’Espresso dedicano congiuntamente a questo genere giornalistico:

D'Avanzo

inchieste.repubblica.it

L’inchiesta di Livini tiene fede a un proposito così impegnativo? In prima battuta avrei detto di sì, anche se la chiarezza dei fatti è un po’ offuscata dal registro giornalistico. «E che altro volevi?» qualcuno potrebbe chiedermi. E allora mi spiego meglio. Primo, vorrei che la ricerca di un tono leggero e scherzoso non andasse a scapito della chiarezza delle cose presentate, perché non essere pallosi (per evitare che il lettore smetta di leggere prima che siamo riusciti a comunicargli quello che ci premeva di fargli sapere) non significa non essere rigorosi. Secondo, vorrei che l’articolo avesse una chiara struttura, una gerarchia delle cose che si ritengono importanti rispetto a quelle che si riportano per completezza di cronaca o per semplice colore, e una presa di posizione su quello che il giornalista – proprio sulla base del suo lavoro d’inchiesta e mettendoci la faccia, come si dice (abusatamente) ora – ritiene credibile su base fattuale, rispetto a quello che è stato detto o affermato dagli intervistati, ma che il giornalista riporta senza prestarvi troppa fiducia. Su questi 2 punti, un modello per me inarrivabile continua a essere l’insegnamento di Lorenzo Milani, a proposito sia del modo di condurre un inchiesta, sia di quello di leggere criticamente un articolo di giornale.

Mi vorrei soffermare soprattutto su 2 punti, anche perché – per pura coincidenza – sull’argomento ho appena letto il capitolo (“For years you’ve been telling us that rain is green”) che vi dedica Nate Silver nel suo bel libro (The Signal and the Noise) che recensirò quando l’avrò finito.

  • Per quanto riguarda la nostra capacità di formulare previsioni, le previsioni del tempo – a differenza, ad esempio, delle previsioni economiche – sono una storia di successo. La storia inizia nel 1916, in piena 1ª Guerra mondiale, quando il fisico inglese Lewis Fry Richardson ammazza il tempo libero che il suo lavoro su un’ambulanza dell’esercito inglese nella Francia del nord gli lascia tra un bombardamento e l’altro per formulare un metodo per prevedere il tempo atmosferico (o meglio simulare, dato che il suo obiettivo era il tempo sulla Germania alle 13 del 20 maggio 1910). Per farlo, suddivide la mappa dell’Europa centrale in una griglia di 3 gradi di latitudine e longitudine, quadrati di circa 340 km di lato. Per ognuna occorreva calcolare una serie di parametri chimici e fisici dell’atmosfera e poi osservarne la trasmissione alle celle contigue e nelle ore successive. Un’impresa impossibile senza un computer: e infatti fallì.
    Richardson

    abc.net.au

    Ci riprova nel 1950 il solito John von Neumann (ne abbiamo parlato ampiamente qui, ma se volete sul web c’è anche il suo articolo originale) utilizzando l’ENIAC: ma è costretto a utilizzare una griglia ancora più grande di quella di Lewis Fry Richardson (736 km invece di 340) proprio per la limitazione della memoria interna del computer. ENIAC poteva fare circa 5.000 operazioni al secondo.
    Naturalmente, la potenza delle macchine, come ben sappiamo è aumentata. Ma così anche la complessità del problema: le celle devono essere molto più piccole di 740 o 340 km di lato e devono svilupparsi anche in altezza: dimezzare la dimensione del lato di una cella significa moltiplicare per 8 il numero di celle da calcolare. Poi le condizioni delle celle devono evolversi nel tempo, e anche la “risoluzione” temporale raddoppia al dimezzarsi della dimensione delle celle (un uragano che si muove, diciamo, a 40 km/h transita ogni ora da una cella di 40 km di lato alla successiva, ma ogni mezzora da una cella di 20 km di lato alla successiva).
    Fosse tutto qui, non sarebbe un problema. Ma come dovrebbero sapere tutti quelli che hanno citato almeno una volta la frase sulla farfalla brasiliana e il tornado texano (Predictability: Does the Flap of a Butterfly’s Wings in Brazil set off a Tornado in Texas? era il titolo di una relazione del meteorologo Edward Norton Lorenz tenuta alla American Association for the Advancement of Science a Washington nel 1972, ma la sua scoperta risale al 1963, quando era formulata in modo molto meno evocativo: «One meteorologist remarked that if the theory were correct, one flap of a seagull’s wings would be enough to alter the course of the weather forever) il tempo atmosferico è un sistema caotico, cioè al tempo stesso dinamico e non lineare.
    In pratica e in parole poverissime, questo vuol dire che non basta calcolare una previsione sola, ma bisogna simularne molte, perturbando appena appena le condizioni iniziali, e vedere quali sono più frequenti. Quando leggete che le probabilità di pioggia domani alle 15 a Roma sono del 70% vuol dire che nel 70% delle simulazioni girate sul computer a quell’ora era prevista pioggia.
    Fin qui tutto chiaro? Conclusione: non basta un computer, ci vuole un super-computer, il più potente che c’è, e un esercito di meteorologi. E come accade (o dovrebbe accadere) quando una cosa di rilevantissimo interesse per tutta la popolazione è grande e costosa, intervengono l’interesse e l’intervento pubblici. È quello che succede negli Stati Uniti della libera iniziativa privata e dello Stato minimo, dove il National Center for Athmospheric Research (NCAR) di Boulder, Colorado, è pubblico e dispone di un super-computer, un IBM Bluefire capace di 77 teraFLOPS (77 milioni di milioni di operazioni al secondo), 15 miliardi di volte più veloce di ENIAC. In Europa, abbiamo lo European Centre for Medium-Range Weather Forecasts (ECMRW) di Reading, in Inghilterra, operativo dal 1992 e co-finanziato da 34 Stati, tra cui l’Italia. L’NCAR fornisce i suoi dati gratuitamente, afferma Nate Silver; l’ECMRW – secondo l’inchiesta di Ettore Livini – «per poche lire»; «ci costano poche centinaia di migliaia di euro l’anno», conferma Sanò, il numero uno di ilmeteo.it.
    Conclusione: c’è un’asimmetria di fondo tra produttori pubblici e “produttori” privati di informazione meteorologica: senza minimamente sottovalutare il ruolo che hanno gli uomini e le organizzazioni nell’analisi, l’interpretazione e la comunicazione al pubblico, mi pare evidente che una comparazione che non metta preliminarmente in chiaro questo diverso punto di partenza – oltre a essere ingenerosa nei confronti dei meteorologi pubblici – non aiuta a farsi un’opinione informata.

  • Nate Silver si spinge ad adombrare che siamo in presenza di un caso di concorrenza sleale. Prendendo i dati gratuitamente dall’NCAR e dal National Weather Service (NWS, anch’esso pubblico), privati come AccuWeather e weather.com (il sito di The Weather Channel-TWC) hanno un traffico 10 volte maggiore di quello del NWS, con i correlati proventi pubblicitari.
    Ma il problema non è solo questo. Il problema per noi (cittadini e utenti) è: ci possiamo fidare delle previsioni dei centri privati?
    Livini si limita a riportare il punto di vista di Sanò, senza commenti: «Noi abbiamo tutto l’interesse a fare le migliori previsioni possibili. […] L’Aeronautica si infastidisce per l’arrivo di nuovi protagonisti.» Mi correggo, Livini commenta, ma il suo commento è sconcertante (e, mi perdoni, un po’ stupido): «Se la bontà delle previsioni si misura in clic, ha ragione lui. Il suo sito a ottobre ha macinato 30 milioni di browser unici, cinque volte più del competitor più vicino.» Ma infatti – si direbbe a Roma – la bontà delle previsioni non si misura in clic, non più di quanto la proverbiale bontà della merda si misuri in numero di mosche che la gradiscono.
    In primo luogo, i divulgatori commerciali traducono l’esattezza delle previsioni in pittoresche metafore: le bombe d’acqua, i cicloni mediterranei, Circe Cassandra Cleopatra Lucifero e Caronte… Aiutano davvero a capire meglio o diffondono allarme ingiustificato e impreciso? Certo non è facile dare una risposta, perché bisogna pur sempre “tradurre” il linguaggio dei dati: in fin dei conti anche “parzialmente nuvoloso” e “piogge sparse” sono locuzioni imprecise.
    In secondo luogo, e questo è un problema più grave, non è affatto vero che i privati abbiano interesse a comunicare le migliori previsioni possibili.
    Ma che cos’è, poi, una buona previsione? Il problema se lo pose – per le previsioni del tempo, ma vale anche per quelle economiche – il meteorologo Allan Murphy in un saggio del 1993, What Is a Good Forecast? An Essay on the Nature of Goodness in Weather Forecasting. Murphy distingue 3 modi diversi in cui una previsione può essere buona (o cattiva):

    1. Quella che Murphy chiama qualità e che sarebbe meglio (concordo con Silver) chiamare accuratezza: le condizioni previste corrispondono alle condizioni osservate ex post?
    2. Quella che Murphy chiama coerenza (consistency) e che Silver chiamare onestà: la previsione, al momento in cui è formulata, rispecchia la migliore valutazione del previsore sulla base degli elementi conoscitivi a disposizione?
    3. Quella che tanto Murphy quanto Silver chiamano valore (economico): la previsione ha aiutato i decisori pubblici e privati ad assumere decisioni migliori?

    Queste 3 dimensioni della qualità delle previsioni, come vedremo, non vanno necessariamente di conserva.
    Negli Stati Uniti, dal 2002 Eric Floehr (forecastwatch.com) raccoglie dati che documentano lo scostamento tra il tempo reale e le previsioni: non emerge un chiaro vincitore tra NWS AccuWeather e TWC. Ma emerge un fatto inquietante: dopo 8 giorni, le previsioni non valgono più nulla: non sono in grado di formulare ipotesi più attendibili da quelle che verrebbero da ipotesi fondate sulla persistenza (il tempo continua a essere quello che è al momento della previsione) o sulla climatologia (il tempo sarà quello che storicamente c’è di solito in questo periodo). Anzi, sono un po’ peggiori di quelle che si potrebbero formulare sulla base di persistenza e climatologia. Ma non è questo che ci deve sorprendere: se il tempo è soggetto alle dinamiche del caos, è soltanto normale che dopo un certo numero di periodi di previsione il modello amplifichi il rumore piuttosto che il segnale.
    Quello che ci deve preoccupare, invece, è che – per quanto perfettamente consapevoli di questo – TWC formuli previsioni a 10 giorni e AccuWeather addirittura a 15. Per quanto la risposta non ci piaccia, purtroppo è univoca: non è l’accuratezza, ma la percezione dell’accuratezza che crea valore agli occhi del consumatore.
    Un altro esempio. Le previsioni commerciali (a differenza di quelle del NWS) sono distorte nella direzione di prevedere più pioggia di quanto effettivamente accada (qui stiamo parlando di accuratezza). È una distorsione voluta, perché se piove quando la probabilità prevista era bassa, il consumatore se la prende con il previsore; ma se viene il sole quando era prevista pioggia pensa di aver avuto fortuna.
    È un segreto di Pulcinella che i previsori commerciali non prevedono mai una probabilità di pioggia del 50% (sembra un sintomo di indecisione o di incompetenza), ma lo correggono casualmente in 40% o 60%.
    I meteorologi delle reti locali formulano previsioni ancora più distorte, e sono più intrattenitori che scienziati.

Supercell

pinterest.com

Qui il cerchio si chiude. Ma con una differenza fondamentale. Nate Silver giunge alla conclusione che la spettacolarizzazione delle previsioni meteorologiche va a scapito dell’accuratezza e dell’onestà (dimensioni della qualità a vantaggio dei consumatori) e a vantaggio del valore economico (dei produttori privati). E giunge a queste conclusioni dopo un’analisi serrata e documentata di come si fanno le previsioni meteorologiche. E le sue conclusioni sono utili al lettore (in questo caso, a me).

Livini parte dalla spettacolarizzazione delle previsioni, in apertura del suo articolo, come nota di colore o, a voler essere molto benevoli, come ipotesi da verificare. Ma poi si perde nel pettegolezzo, accumula fatti e opinioni senza orientarvicisi lui stesso e, dunque, senza orientare noi.

Io non ho trovato né paziente faticaforza incoercibile. Non so se Giuseppe D’Avanzo sarebbe stato contento.

Una Risposta to “Le previsioni dei meteorologi privati sono distorte?”

  1. Nate Silver – The Signal and the Noise « Sbagliando s'impera Says:

    […] Nate Silver è salito sulla ribalta della cronaca in queste ultime settimane, prima per le polemiche sulle sue previsioni sull’esito delle elezioni americane, e poi per il suo trionfo. Ne ho scritto su questo blog in più occasioni, sia a proposito proprio delle elezioni americane (Nate Silver, il vincitore morale delle elezioni americane), sia discutendo dell’affidabilità delle previsioni meteorologiche private (Le previsioni dei meteorologi privati sono distorte?). […]


Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...

%d blogger hanno fatto clic su Mi Piace per questo: