Trarre ordine dal caos in regime di incertezza: la mirabolante storia di Shannon e Thorp

In questi mesi è sempre più bollente il tema del Predictive Analytics, contornato di un’aura di mistero per via delle promesse, implicite o meno, che sembra regalare alle aziende e, perché no, a tutti noi privati cittadini.

L’idea di imparare dagli schemi del passato per trarre conclusioni plausibili per il futuro, vere e proprie previsioni, è sicuramente allettante. Per quanto possa sembrare incredibile, all’interno dei dati è nascosta tutta una serie di informazioni che consentono, letteralmente, di trarre l’ordine dal caos e di derivarne informazioni utili al processo decisionale, pur in presenza di incertezza.

Se ne accorse nel lontano 1964 il professor Edward Thorp, tanto esperto nell’arte di trarre conclusioni in regime di incertezza da … essere stato cacciato da tutti i Casinò di Las Vegas. Nello spettacolo televisivo Tell To The Truth, ormai cinquantatrè anni fa, il professore raccontava come sia possibile applicare formule matematiche che consentono di valutare la casualità insita negli schemi di natura. Solo che Thorpe, furbescamente, aveva pensato bene di applicare questa piccola magia al gioco d’azzardo.

Due anni prima, era il 1962, il professor Thorp aveva pubblicato un libro decisamente interessante: Beat the Dealer. Nel libro si racconta come sia possibile costruire un sistema di conteggio delle carte al gioco del Blackjack, fondato sulla combinatoria alla base del calcolo delle probabilità. Come tutte le idee geniali, il metodo Thorp fu pure preso sottogamba, ma i titolari dei Casinò dovettero presto ricredersi, tanto che furono costretti a cambiare le regole del Blackjack. Inutile dire che anche con le regole modificate, la teoria matematica alla base del metodo di Thorp ha richiesto solo piccoli aggiustamenti, prima di tornare a funzionare nuovamente. Tanto che un gruppo di intraprendenti studenti di varie università, uniti ad un professore altrettanto intraprendente e visionario fondarono il MIT Blackjack Team: un concentrato di capoccioni provenienti dallo stesso Massachusetts Institute of Technology e da Harvard. La storia è raccontata mirabilmente nel film “21”.

Il metodo Thorp è stato talmente rivoluzionario, da far sì che si iniziassero ad investigare strade analoghe anche per altri giochi da Casinò, come la Roulette. Ed è qui che entrò in gioco un altro professore del MIT, nientemeno che Claude Shannon, che a suo tempo aveva lavorato alla crittografia e alla decodifica durante la Seconda Guerra Mondiale. Il lavoro di Shannon è stato talmente fondamentale da far meritare al professore del MIT il titolo di padre della Teoria dell’Informazione. Titolo niente affatto esagerato, perché Shannon ha dato via ad una vera e propria era della civiltà umana. Si narra che Shannon e Thorp, nel tentativo di far saltare il banco, si spinsero a costruire un primo modello di computer portatile che li aiutasse a fare i calcoli in tempo reale mentre giocavano ai giochi del Casinò.

Ma, questa, è un’altra storia: è importante piuttosto far capire la portata del lavoro di Shannon solamente con un piccolo assaggio. Chi lavora in ambito Predictive Analytics usa abbondantemente la teoria dell’informazione di Shannon (spesso senza neanche saperlo), tanto da poter valutare in modo estremamente preciso le caratteristiche probabilistiche degli eventi in regime di incertezza.

Facciamo un esempio pratico, e supponiamo di trovarci di fronte ad un cliente particolarmente burlone: per metterci alla prova anzichè darci la serie dei valori del fatturato della sua azienda, ci propina una serie di numeri, opportunamente moltiplicati, provenienti dal lancio di un dado a cento facce.

Il Data Scientist se ne accorge immediatamente perché è in grado di valutare l’impronta caratteristica dei dati che ha ricevuto. Una delle idee più interessanti di Shannon è, infatti, la misura dell’Entropia delle distribuzioni. Un oggettto puramente matematico con cui a partire da una distribuzione di probabilità P, è possibile calcolarne una misura che ne restituisce essenzialmente la caoticità (e molte altre cose che qui non trattiamo).
La formula di Shannon è la seguente:

H(P) = – Σ P logP

dove il logaritmo è in base 2. L’entropia ha una caratteristica importante: è minima quando la quantità di caoticità della distribuzione è minima (e vale zero) ed è massima quando è massima la quantità di caoticità della distribuzione. In particolare, se la distribuzione ha N valori, allora l’entropia è pari al logaritmo in base 2 di N.

Supponiamo ad esempio di avere un dado a sei facce. Siccome la probabilità di uscita di ciascuna faccia è uniforme, passando la distribuzione dei valori ottenuti dal lancio del dado, otterremmo un valore di entropia che si approssima a log(6). Se il dado fosse truccato, invece, e restituisse sempre e solamente una faccia, otterremmo una valore di entropia pari a 0.

Se il cliente ci fornisse una distribuzione di valori ottenuta da un dado a 100 facce, pur se moltiplicati opportunamente per apparire come un fatturato, avremmo un valore di entropia che si approssimerebbe a log(100). E, quindi, ce ne accorgeremmo immediatamente.

Ovviamente la teoria dell’informazione contiene tutta una serie di metodi di cui l’entropia è solamente un mero assaggio. Un esempio mirabile è la mutua informazione, fondamentale per valutare eventi apparentemente distinti ma che, invece, presentano caratteristiche comuni rilevabili su base meramente statistica. Per tornare al metodo Shannon – Thorp, se si decidesse di giocare ai dadi, basterebbe misurare preventivamente l’entropia dei dadi da gioco nei vari tavoli di Casinò e giocare al tavolo che presenta entropia minima e gestire così l’incertezza mettendosi in una situazione ove questa sia minima, appunto.

A Shannon va il merito assoluto di aver battuto una strada fino ad allora considerata difficilmente praticabile, costruendo una serie di metodi e modelli che sono alla base dell’era dell’informazione, oggi più che mai fondamentali per Machine Learning e Predictive Ananlytics.

Ci torneremo su.

 

Share
Questa voce è stata pubblicata in Scienza oggi, Teoria e Pratica, Uomini e Donne e contrassegnata con , , , , , , , , . Contrassegna il permalink.

2 risposte a Trarre ordine dal caos in regime di incertezza: la mirabolante storia di Shannon e Thorp

  1. Alfio scrive:

    Scusa, ma io, dalla frase che c’è scritta alla fine di quella immagine dove ci sono le formule (general case), capisco il contrario :”alta entropia significa che X viene da una distribuzione uniforme”; mentre la frase in rosso dice che bassa entropia significa che la distribuzione è più varia. Ho capito male?
    Comunque grazie per tutte le spiegazioni e le notizie, per me interessantissime, che ci fornisci e che fanno sì che , di tutto il tempo che spendo su internet, quello che trascorro per leggere il tuo blog è quello spesso meglio.

    • LidiMatematici scrive:

      Grazie del feedback positivo Alfio.
      Per “variata” si intende “non uniforme”. Qui abbiamo un problema lessicale per cui per uniforme si intende “uguale/Non caotica” in linguaggio comune, mentre in calcolo delle probabilità si ha che alla uniformità corrisponde una maggiore caoticita, esattamente il contrario del senso comune. Laddove una distribuzione presenta picchi e valli, vuol dire che ha maggior probabilità di assumere valori nei picchi e minore nelle valli e, per questo, è meno caotica.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *