Arbesman, Samuel (2012). The Half-life of Facts: Why Everything We Know Has an Expiration Date. New York: Current. 2012. ISBN 9781101595299. Pagine 256. 14,10 €

amazon.com
L’idea di fondo del libro è originale e stimolante: i fatti e le nozioni che apprendiamo e formano l’insieme delle nostre conoscenze hanno una durata limitata, non definibile specificamente, ma prevedibile statisticamente, come succede per il decadimento degli atomi radioattivi. Arbesman articola e argomenta quest’idea diffusamente e in modo approfondito, a partire dalla disciplina di cui è un esperto, la scientometria, ma poi si disperde in campi forse abbastanza prossimi all’argomentazione e all’argomento centrale, ma non strettamente connessi. La mia impressione finale è quella che, in questo modo, il libro abbia perso in efficacia e che l’autore abbia perso l’occasione di trasmetterci un’idea originale e memorabile. Temo che una bella porzione di responsabilità per questo esito ricada sulle spalle dell’agente letterario di Arbesman, Max Brockman, figlio e socio del più famoso John di cui abbiamo già avuto occasione di scrivere (qui, per esempio, ma anche qui, qui, qui anche se per un errore imperdonabile, e da ultimo qui).
Insomma, alla fine sono rimasto un po’ deluso, non per specifiche manchevolezze, ma per una certa mancanza di compattezza del volume. Si capirà meglio che cosa intendo dire percorrendo l’indice del volume, capitolo per capitolo:
- The Half-life of Facts: il capitolo dedicato all’argomento di fondo del libro, all’idea che la conoscenza è come la radioattività, nel senso che prevedere quando un singolo atomo d’uranio decadrà è pressoché impossibile, ma prevedere quando la metà degli atomi di una blocco di uranio decadrà è possibile nell’aggregato (704 milioni di anni è la risposta). Lo stesso, sostiene in modo convincente Arbesman, è vero per i fatti che costituiscono la conoscenza nel complesso o in una singola disciplina.
- The Pace of Discovery: segue un andamento di crescita esponenziale e non lineare. Di qui Arbesman passa a raccontare la nascita della scientometria e i suoi risultati principali.
- The Asymptote of Truth: l’idea dell’emivita dei fatti viene corretta illustrando il carattere cumulativo delle scoperte scientifiche.
- Moore’s Law of Everything: il capitolo illustra dapprima l’idea che un risultato come quello implicito nella legge di Moore è il risultato del succedersi di una serie di fenomeni di crescita che obbediscono a una legge logistica e poi generalizza l’idea alla scienza e alla tecnologia.
- The Spread of Facts: l’informazione non si diffonde istantaneamente e segue percorsi che possono essere studiati dalla network analysis.
- Hidden Knowledge: la coda lunga dell’expertise e la nascita di InnoCentive, e molte molte altre cose … Insomma, una dei capitoli più ricchi di spunti ma anche tra i più dispersivi.
- Fact Phase Transitions: apparentemente in contraddizione con l’idea dell’emivita dei fatti, l’idea che le innovazioni possono comparire all’imnprovviso è in realtà il portato della stessa logica che porta a distinguere i comportamenti micro (imprevedibili e cumulativi) dal’emergere di quelli macro (l’emivita, appunto, ma anche le transizioni di fase).
- Mount Everest and the Discovery of Error: che cosa siano i fatti e come cambiano è spesso una questione di misurazione (un tema affascinante, ma non nuovo per chi fa lo statistico).
- The Human Side of Facts: tra i vari limiti umani, il capitolo si concentra sulla shifting baseline syndrome, quella che ci fa percepire il cambiamento soltanto prendendo a riferimento lo stato del mondo al momento della nostra nascita o a quello in cui siamo diventati per la prima volta coscienti di un fenomeno.
- At the Edge of What We Know: anche il nostro cervello ha una carrying capacity? Anche tutto il complesso della conoscenza segue una logistica? (O forse ha ragione Ray Kurzweil e la singolarità è vicina?)
Non vorrei lasciarvi soltanto con la mia recensione non del tutto convinta. Perciò, prima di passare al consueto florilegio di citazioni, la parola alla difesa.
* * *
Cominciamo con due interventi in video dello stesso Sam Arbesman. Entrambi sono una presentazione del suo libro, la prima TED:
La seconda girata per la Kaufmann Foundation, dove Arbesman lavora:
Il terzo video è una divertente animazione:
* * *
E adesso, un po’ di recensioni trovate in giro sul web:
- La recensione di Antonio Sgobba (La vita mortale dei fatti) su la lettura de Il Corriere della sera del 30 settembre 2012.
- Daniel Engber. Truth Decay. A network scientist examines the lifespan of a fact. Slate 5 ottobre 2012.
- L’intervista di Bora Zivkovic su Scientific American (10 agosto 2012).
- L’intervista su The Economist del 28 novembre 2012.
* * *
Ed ecco le consuete citazioni (riferimento come sempre alle posizioni sul Kindle). Vi consiglio di darci almeno un’occhiata, perché aiutano a capire perché – nonostante i difetti strutturali segnalati in precedenza – resta comunque un libro che è utile leggere, per i numerosi spunti e stimoli che contiene.
Facts are how we organize and interpret our surroundings. [103]
[W]hen people thought the earth was flat, they were wrong. When people thought the earth was spherical, they were wrong. But if you think that thinking the earth is spherical is just as wrong as thinking the earth is flat, then your view is wronger than both of them put together. [605. La citazione è tratta da: Asimov, Isaac. “The Relativity of Wrong”. The Skeptical Inquirer. 14, no. 1 (1989): 35-44]
Larger groups of interacting people can maintain skills and innovations, and in turn develop new ones. A small group doesn’t have the benefit of specialization and idea exchange necessary for any of this to happen. [969: Density is destiny]
Viewed this way, a city is then a place where people can easily interact. [1067]
Simkin and Roychowdhury conclude, using some elegant math, that only about 20 percent of scientists who cite an article have actually read that paper. [1483]
In 1771, a French academy offered a prize for finding a vegetable that would provide adequate nutrition during a time of famine. The prize was won two years later by Antoine Parmentier for his suggestion of the potato. [1656]
In 1999, Albert-László Barabási and Réka Albert wrote a celebrated paper that was published in Science, one of the world’s premier scientific journals, about a process they termed preferential attachment. The process is responsible for creating a certain pattern of connections in networks — also known as a long tail of popularity — by the simple rule of the rich getting richer, or in this case, connections begetting more connections. For example, on Twitter there are a few individuals with millions of followers, while most users have only a handful. This paper shows how, by assuming a simple rule that newcomers look at everyone in the network and are more likely to connect with the most popular people, you can explain why you get the properties of the entire network — in Twitter or elsewhere — that we see. Using a wide variety of datasets and some mathematics, they showed this rigorous result.
Unfortunately, they weren’t the first. Derek Price, the father of scientometrics, had written a paper in the 1970s showing that one can get this same pattern by invoking a similar rule with respect to how scientific papers cite one another. But Barabási and Albert didn’t know about Price.
Price wasn’t the first either. Herbert Simon, a renowned economist, had developed the same idea in the fifties. Which also happened to be the same concept that Udny Yule had published several decades earlier.
The general concept of preferential attachment is actually known by many names. It’s known as the Matthew effect, as Robert Merton coined it, in sociology, and is related to something known as Gibrat’s Law when it comes to understanding how cities and firms grow. [1665-1669]To understand that sort of thing, or any other system for which we want to explain a certain phenomenon, we need to create much simpler models. These don’t make any claims for verisimilitude. Instead, they go to the other extreme and claim the following: We can make an extremely basic model that even with all the complexity of real life stripped away still has certain features of our complicated world. And if we can capture these features of our world, maybe we can understand why they occur. In our case, the question is whether a simple model can be made that exhibits phase transitions. [2008]
For example, the larger the population of a city, the smaller the number of gas stations that are necessary per capita; gas stations might be indicative of energy usage of the city as a whole, and it seems that larger cities are more efficient consumers of energy. This is similar to how larger organisms are more energy efficient than smaller ones. [2193]
Precision refers to how consistent one’s measurements are from time to time. [2407]
Accuracy refers to how similar one’s measurements are to the real value. [2411]“Statistics is the science that lets you do twenty experiments a year and publish one false result in Nature.” [2475. La citazione è attribuita a John Maynard Smith]
Shifting baseline syndrome was first identified and named by Daniel Pauly to refer to what happened with fish populations throughout the world. [2774]
Alan Kay, a pioneering computer scientist, defined technology as “anything that was invented after you were born.” [2786. La citazione è tratta da: Kelly, Kevin. What Technology Wants. New York: Viking. 2010. p. 235]
While we are nowhere near the end of science — the sum of what we don’t know is staggering — we might very well be in a logistic curve of ever-changing knowledge as well, rather than one of exponential growth. One of the reasons I believe this could be true is simple: demographics. It seems unlikely that the rapid population growth will continue growing faster and faster. Whenever a country has become industrialized, its development has gone hand in hand9 with a drop in birth rate. Therefore, as the world as a whole advances technologically, population will cease to grow at the frenetic pace of previous decades and centuries. Combined with energy constraints — we are nowhere near our limits, but our energy resources are certainly not unbounded — exponential knowledge growth cannot continue forever. On the other hand, as computational power advances, computer-aided scientific discovery could push this slowdown far off into the future. [3277]