Pagina Principale Indice

Informazione e Entropia


“Stanco dell'infinitamente piccolo e dell'infinitamente grande, lo scienziato si dedicò all'infinitamente medio.”
Ennio Flaiano

Un testo classico

“AIT is a theory that uses the idea of the computer, particularly the size of computer programs, to study the limits of knowledge, in other words, what we can know, and how. This theory can be traced back to Leibniz in 1686, and it features a place in pure mathematics where there is absolutely no structure, none at all, namely the bits of the halting probability Ω.”

Complessità e semplicità

di Franco Pastrone su Lettera Pristem Bocconi

Il termine complessità ha recentemente conosciuto una grande diffusione negli ambienti scientifici. Si trova, spesso unito ad altri termini più specifici, dando luogo a espressioni di moda in molti progetti di ricerca (sistemi complessi, teoria della complessità, ecc.) anche in campi molto diversi tra di loro, quali la Fisica, la Biologia, la Chimica, l'Economia, la Sociologia.
Non è facile, però, dare una definizione precisa e nello stesso tempo chiara del termine. Anzi, spesso, si ricorre a discorsi "complessi" che lasciano nel vago e nell'ambiguo il concetto che si vuole definire.

... sistemi semplici non esibiscono necessariamente comportamenti semplici. Naturalmente ci sono sistemi dinamicamente molto complessi che mostrano un comportamento semplice a prezzo di un radicale mutamento di prospettiva; è il caso di un gas, dinamicamente intrattabile, che si comporta in modo semplice e predicibile considerato come un sistema termodinamico; ...

modelli matematici deterministici non linearipossono generare andamenti estremamente complicati, quasi indistinguibili da processi aleatori.

modelli matematici deterministici non linearipossono generare andamenti estremamente complicati, quasi indistinguibili da processi aleatori.

As We May Think

di Vannevar Bush

“Consider a future device … in which an individual stores all his books, records, and communications, and which is mechanized so that it may be consulted with exceeding speed and flexibility. It is an enlarged intimate supplement to his memory.”

PageRank: sulle spalle dei giganti

di Massimo Franceschet

Il valore di un'informazione, nel Web, è dato dal numero di siti che vi indirizzano verso di lei: e quindi dalla velocità con cui, chi la cerca, la troverà. [...] La velocità è generata dalla qualità, non il contrario. I proverbi, diceva Benjamin con una bella espressione, sono geroglifici di un racconto: la pagina web che trovate in testa ai risultati di Google è il geroglifico di tutto un viaggio, fatto di link in link, attraverso l'intera rete.
Alessandro Baricco, I barbari. Saggio sulla mutazione (Fandango 2006)

Cos'è il Google Page Rank

È un valore che va da 0 a 10 che Google assegna ad ogni pagina Web (e non al sito nel suo complesso) in base ad un algoritmo e che definisce il livello di popolarità della pagina.

Nel 1976, vale a dire 22 anni prima della nascita di Google, Gabriel Pinski e Francis Narin propongono un metodo bibliometrico per valutare l'importanza delle riviste accademiche. L'intuizione è sorprendentemente simile a quella del PageRank: una rivista è importante se viene citata da altre riviste importanti. In questo caso, per citazioni di intendono i riferimenti bibliografici contenuti nella bibliografia degli articoli pubblicati nelle riviste. Questo metodo è stato ripreso varie volte nel contesto della bibliometria, la quale si occupa di proporre metodi per valutare quantitativamente la qualità della ricerca accademica. Ad esempio, l'indicatore bibliometrico noto come Eigenfactor realizza l'idea proposta da Pinski e Narin, e, ad oggi, è considerato un serio competitore dell'Impact Factor proposto da Eugene Garfield.
Nel 1965, cioè 11 anni prima del metodo bibliometrico di Pinski e Narin, il sociologo Charles H. Hubbell propone un metodo per valutare l'importanza delle persone in una rete sociale. Anche in questo caso, la tesi è la medesima: una persona è importante se viene riconosciuta da altre persone di valore. Vi è però una variante interessante: il giudizio di valore espresso dai soggetti può essere positivo, neutro o negativo. Naturalmente, ricevere giudizi positivi da persone importanti aumenta il nostro valore, mentre ricevere giudizi negativi da persone di valore fa decrescere il nostro prestigio. Al contrario, secondo l'algoritmo di Hubbell, ricevere riconoscimenti positivi da persone negative (ad esempio, da un mafioso) diminuisce il nostro valore, mentre essere osteggiati da persone negative aumenta il nostro prestigio (si pensi a Roberto Saviano).
Ma la vera sorpresa sta nel fatto che il metodo usato dall'economista russo Wassily W. Leontief per determinare i prezzi dei beni nei sistemi economici, ideato nel lontano 1941 (a più di mezzo secolo dalla nascita di Google) e che gli è valso il Premio Nobel per l'Economia nel 1973, non è altro che il PageRank sotto mentite spoglie. Leontief interpreta l'economia come una rete di industrie o settori in cui ogni settore riceve beni da altre industrie e li usa per produrre beni che a sua volta vende ad altri settori. Per determinare i prezzi dei beni prodotti dai vari settori che mantengano la riproducibilità dell'economia, vale a dire il pareggio tra costi e ricavi in ogni settore, Leontief usa un algoritmo molto simile al PageRank: il prezzo dei beni prodotti e venduti da una industria (e quindi il suo ricavo) è tanto più alto quanto è elevato il prezzo dei beni acquistati dall'industria presso altri settori. Quindi industrie fortemente remunerative acquistano i loro prodotti da altre industrie remunerative, la stessa circolarità che ritroviamo nel PageRank. Curioso come proprio un economista russo sia, involontariamente, alla base del successo di uno dei più grossi colossi tecnologici americani.