Dalla Relatività Generale alle Superstringhe

d8e4b573e4518013b7d41dc4951d8d0cDopo Einstein e il terremoto portato dalla Teoria della Relatività Generale riguardo alle certezze sullo spazio e il tempo, e dopo la meccanica quantistica ed il suo mondo onirico fatto di probabilità, l’umanità si è ritrovata proprio all’inizio di un XX secolo che prometteva un salto notevole di qualità in termini di conoscenza del mondo, con una quantità di interrogativi a dir poco drammatica.

All’inizio degli anni ’40, fu proprio Werner Heisenberg, privato del concetto assoluto di spazio e tempo, a dover fare i conti con il materiale a disposizione per produre una teoria scientifica in grado di giustificare le interazioni subatomiche dette forti, cioé le forze che tengono insieme gli atomi. Heisenberg pensò di partire dai concetti della meccanica quantistica, che egli stesso e un team di tutto rispetto con personaggi del calibro di Schroedinger, e Dirac, contribuì a formalizzare. L’impostazione quantistica ha un’impronta decisamente orientaleggiante che sembra presa da uno di quei romanzetti New Age: la realtà non è misurabile direttamente e, in linea con tutte le filosofie orientali, il solo fatto di osservare implica una trasformazione della realtà stessa. In meccanica quantistica l’osservazione è rappresentata da un operatore matematico detto osservabile. E’ l’osservabile a restituire le misurazioni sullo stato del sistema che, per sua natura, rimane completamente precluso all’osservatore. Le misurazioni ottenute dall’applicazione dell’osservabile non sono numeri puri, ma distribuzioni di probabilità.

In post precedenti abbiamo introdotto l’esperimento di Young e la diffrazione: la stenger2meccanica quantistica è in grado di modellare con precisione il comportamento probabilistico di un elettrone che passa per una fenditura. Una rivoluzione. Aggiungendo a tutto ciò la difficoltà che lo spazio e il tempo non sono misure affidabili, perché dipendenti dalla velocità (le contrazioni di Lorentz di cui abbiamo già parlato la settimana scorsa) il quadro si complica non poco. Heisenberg pensò di costruire un modello predittivo del comportamento della materia, in particolare delle interazioni forti, basato principalmente sulla quantità di moto delle particelle. E’ un concetto estremamente complesso da discutere in un testo divulgativo, ma il punto chiave da comprendere è che il comportamento della materia, sebbene probabilistico, è intrinsecamente legato all’energia che la materia porta con sé.

Una delle più incredibili difficoltà della meccanica quantistica è data dal concetto di sovrapposizione, per cui la materia, nel mondo subatomico, può stare contemporaneamente in più stati. Per fare un esempio, se potessimo costruire oggetti macroscopici che preservino il comportamento subatomico, avremmo un dado quantistico che, lanciandolo, non restituirebbe un unico valore, ad esempio 6, ma una sovrapposizione di più valori come un quarto di 6 e tre quarti di 2. Contemporaneamente. La sovrapposizione non è che una delle stranezze del mondo quantistico, pienamente supportata dalle evidenze sperimentali. Prendiamo ad esempio un filtro polarizzatore (vedi link a fine articolo), che lascia passare fotoni oscillanti solamente su un piano, come ad esempio il piano orizzontale.

Al livello subatomico accade un fenomeno veramente complesso da accettare, per noi abitanti del mondo macroscopico: quando polarizziamo un fotone in diagonale, la sua polarizzazione è contemporaneamente sia verticale che orizzontale. Vale a dire che non costruiamo uno stato “terzo” a sé, ma un vero e proprio mix dei primi due. Tanto che il concetto di “diagonale” in meccanica quantistica è radicalmente diverso da quello del nostro mondo. Se dovessimo renderlo a parole, dovremmo usare un coro a due voci che reciti, contemporaneamente, le parole orizzontale e verticale.
In meccanica quantistica non si ha a che fare con eventi determinati, ma con distribuzioni di probabilità. Abbiamo visto in un post precedente che se prendiamo due filtri polarizzatori e li disponiamo ortogonalmente, per essi non passa luce. Ma se inseriamo un terzo polarizzatore tra i due, in sequenza uno orizzontale, poi uno diagonale e poi un terzo verticale, poiché la probabilità che un fotone passi per uno diagonale e per uno orizzontale o verticale è del 50%, alla fine, combinando le due probabilità si ottiene che la probabilità che il fotone passi per il primo (orizzontale), poi per il secondo (diagonale) e infine per il tre_polarizterzo (verticale) è del 25 %.

In altri termini, abbiamo sperimentato, contemporaneamente, che per un polarizzatore orizzontale ed uno verticale non passa luce, ma se inseriamo un terzo filtro il risultato del secondo esperimento contraddice il primo. E’ il paradosso della polarizzazione: aggiungendo un polarizzatore tra due che bloccano la luce, questa passa nuovamente. I fotoni che viaggiano tra i tre polarizzatori mantengono sempre il loro stato di sovrapposizione per cui, per quanto assurdo possa sembrare, i due esperimenti – pur se contraddittori – sono contemporaneamente validi.

Senza né spazio né tempo e con il fenomeno intrinseco della sovrapposizione, Heisenberg pensò di codificare trasformazioni di stato tra particelle in una matrice, detta Matrice S, che definiva le probabilità di variazione della quantità di moto di gruppi di particelle a seguito di specifici eventi.

Contemporaneamente, i fisici di tutto il mondo stavano letteralmente spaccando l’atomo Tullio_Reggein quattro e continuavano a scoprire nuovi tipi di particelle subatomiche. Furono due italiani, Tullio Regge prima, che scoprì che queste trasformazioni, pur restando probabilistiche, tendevano a raggrupparsi in base alla quantità di moto delle particelle stesse e a disporsi lungo traiettorie specifiche, dette Traiettorie di Regge, e Gabriele Veneziano, che contribuì assieme ad un team internazionale a comprendere come questi raggruppamenti fossero molto più simili a filamenti, o stringhe. Fu solo a metà degli anni ’80 che un team svedese ed americano composto da Susskind, Nambu e Nielsen, produsse il primo modello di Teoria delle Superstringhe.

Dopo un periodo di oblio la Teoria delle Superstinghe ha ripreso nuovamente piede, grazie al fatto che non solo è in grado di giustificare una serie di fenomeni subatomici, ma anche la forza più debole di tutte, la gravità, e una nuova visione cosmologica. E’ una teoria cruciale per la conoscenza scientifica che promette di mettere insieme teoria della relatività e meccanica quantistica. Una delle più complesse caratterizzazioni della fisica subnucleare è, infatti, la modellazione di elettroni e quark, i costituenti dell’atomo, come entità adimensionali prive di massa.

05c56286bd77ba1d47068f241bfc50d6

Prospetto delle interazioni subatomiche delle particelle fondamentali

Secondo la teoria delle superstringhe i costituenti dell’atomo non sono particelle elementari ma filamenti unidimensionali in oscillazione. Le grandezze fisiche osservabili, relative ad elettroni e quark, come ad esempio la carica o lo spin, sono date dal modo in cui queste superstringhe oscillano. La teoria ne prevede anche una versione generalizzata multidimensionale, non più stringhe, filamenti, ma membrane, dette brane osusskind p-brane, perché a p dimensioni. Si tratta di un impianto molto complesso, difficilmente comprensibile senza l’adeguato supporto di teorie matematiche, in cui l’universo è costituito da p-brane a dieci o più dimensioni e tutte le interazioni osservabili sono date da vibrazioni di queste membrane, anche su scala cosmica. Secondo la teoria, le dimensioni addizionali rispetto alle tre che percepiamo comunemente sono “accartocciate” (i fisici dicono compatte) su sé stesse. Ad esempio, è possibile far apparire un oggetto in tre dimensioni come una sottile linea accartocciando le altre due lungo l’asse della linea, a formare un cilindro. Una rivoluzione ancora da dimostrare: la Teoria delle Superstringhe spiega tutte le interazioni tra le particelle fondamentali.

Le 6-7 dimensioni extra sono talmente compatte da non essere sperimentalmente rilevabili dai nostri strumenti: è importante però osservare che la teoria matematica diventa consistente con la loro introduzione. In una linea unidimensionale, che invece è un cilindro le cui due dimensioni addizionali sono “accartocciate”, la carica, ad esempio, è modellabile come la quantità di moto di un oggetto in rotazione nella direzione della linea stessa.

Data la dimensione paragonabile alla distanza di Planck di queste 6 o 7 dimensioni, su scala così microscopica occorrono particelle di altissima energia per investigarne il comportamento.

Immagino già la vostra domanda: ma la teoria è vera? Lo scopriremo con i nuovi strumenti come il collisore di adroni LHC di Ginevra: porteranno sicuramente maggior luce negli anni a venire, come hanno già fattto con le Onde Gravitazionali ed il Bosone di Higgs.

LidiMatematici torna tra due Lunedì

-> Vai all’approfondimento sull’esperimento dei polarizzatori

Share
Pubblicato in Teoria e Pratica | Contrassegnato , , , , , , , , , , , , , , , | Lascia un commento

Che cosa è il Tempo?

tempo_cosmico_cosmic_timePer millenni abbiamo creduto che il tempo sia tempo e basta, e che lo spazio sia spazio e basta, cioè che la misura dello spazio e del tempo sia indipendente dal sistema di riferimento. Un metro è un metro, e un secondo è un secondo. In un articolo precedente abbiamo immaginato di condurre l’esperimento del treno, in cui una persona resta a terra ed una sale sul tetto di un treno in corsa. La persona sul tetto del treno che si muove a 50 km/h lancia un sasso, a 20 km/h. Al lanciatore sul tetto il sasso appare muoversi a 20 km/h, all’osservatore a terra , invece, il sasso appare muoversi alla velocità di 70 km/h: 50 km/h del treno più 20 km/h del sasso.

Il treno rappresenta un sistema di coordinate in movimento, nel caso a velocità costante e, poiché un secondo e un metro devono essere uguali sia per l’uno che per l’altro osservatore, le velocità del treno e del sasso devono necessariamente sommarsi per l’osservatore a terra. Ora, a complicare la vicenda ci si è messo un grande fisico del XIX secolo: James Clerk Maxwell. Maxwell concepì una teoria rivoluzionaria che unificava il campo elettrico, il campo magnetico e le manifestazioni della luce sotto una unica teoria: l’elettromagnetismo. Fino a 500px-Maxwell'sEquations.svgprima di lui questi tre fenomeni erano considerati distinti, Maxwell ne costruì un modello matematico talmente sintetico da far venire i brividi.

Sono le famose quattro equazioni di Maxwell che consentono di prevedere, modellare e comprendere tutti i fenomeni del reale che coinvolgono elettricità, magnetismo e luce. Queste equazioni non si possono spiegare a parole, è sufficiente ammirarne il vero capolavoro di sintesi. Grazie ad esse è possibile rappresentare praticamente tutta la fisica. 
Cosa c’entra tutto questo con il tempo ? Il problema è che le quattro equazioni di Maxwell implicano un fatto dagli effetti devastanti:
la velocità della luce è una costante indipendente dal sistema di riferimento Le previsioni di Maxwell sull’invarianza della velocità della luce furono confermate da un esperimento fondamentale per la fisica moderna. Nel 1887, i fisici Albert Abraham Michelson e Edward Morley, determinarono sperimentalmente la velocità della luce attraverso un particolare strumento detto interferometro ed una serie di specchi per allungare il percorso della luce e rendere, così, le mimg213misurazioni più precise. L’esperimento di Michelson e Morley non solo determinò la velocità della luce nel vuoto, poco meno di 300.000 km/s, ma confermò anche che questa non varia al variare dell’orientamento dei fasci luminosi, cioé è indipendente dal sistema di riferimento. A rendersi conto delle conseguenze rivoluzionarie del lavoro di Maxwell per la fisica fu una figura relativamente poco conosciuta, Hendrik Antoon Lorentz. Ma andiamo con ordine.
Il punto è che se la velocità della luce è invariante, allora non è vero che lo sono Lorentz_2anche spazio e tempo, Per comprendere questo fatto dobbiamo per forza ripetere l’esperimento del treno, stavolta anziché lanciare un sasso, accendiamo una torcia elettrica.

Affermare che la velocità della luce, 300 mila km/s nel vuoto, è costante indipendentemente dal sistema di riferimento vuol dire che Il fascio di luce che la persona proietta verso l’osservatore a terra, in posizione esterna al treno, non viaggia ad una velocità pari alla somma della velocità della luce più quella del treno ma sempre alla velocità della luce.
Per qualche oscuro motivo, quindi, a velocità prossime a quelle della luce lo spazio e il tempo si “stiracchiano” per così dire, in modo tale che la velocità della luce resti costante. Infatti, poiché in fisica la velocità è pari al rapporto tra spazio e tempo, per mantenere la velocità costante possono succedere due cose: o lo spazio si accorcia e il tempo si allunga in proporzione, o il viceversa.

Il risultato di tutto questo è che se due sistemi di riferimento si muovono a velocità prossime a quella della luce l’uno rispetto all’altro, per mantenere costante la velocità della luce, lo spazio e il tempo devono necessariamente variare. Insomma, un secondo non è più sempre un secondo e un metro non è sempre un metro: dipendono dalla velocità.

Lorentz si è guadagnato un posto nell’olimpo della fisica per aver scoperto le trasformazioni di coordinate che consentono di mantenere costante la velocità della luce in un sistema di riferimento qualsiasi. Non è ovviamente questa la sede per raccontare nel dettaglio le Trasformazioni di Lorentz, pubblicate nel 1897.

Le possiamo però riassumere brevente così: la quanità t^2-s^2, o tempo proprio, è formula1invariante rispetto al sistema di riferimento la migliore risposta alla domanda cosa è il tempo? a disposizione del genere umano, oggi. Il tempo che percepiamo noi t, varia di una quantità dipendente dal rapporto tra la velocità corrente v e la velocità della luce c. E’ la formula a destra, parte delle cosiddette trasformazioni di Lorentz. Ci torneremo su.

Spazio  e tempo  sono indissolubilmente legati da una relazione di simmetria tutta particolare. Quando un’onda si propaga, e possiamo semplificare in modo estremo dicendo che la massa è un “tipo particolare” di onda, lo fa in uno
spazio quadridimensionale composto da tre coordinate spaziali ed una temporale. Per far sì che il tempo proprio sia invariante, le variazioni nello spazio e nel tempo sono necessariamente simmetriche rispetto al tempo e allo spazio che noi concepiamo ordinariamente.

E’ necessario un ulteriore esempio pratico per comprendere questo fatto. Immaginiamo di visualizzare un’onda che si propaga lungo uno spazio unidimensionale. Sappiamo che le onde hanno un andamento caratteristico in forma di sinusoide e sono date dallo spostamento in verticale di ciascuna particella in moto. Congelando il tempo in un istante dato ed osservando lo spostamento spaziale di ogni punto notiamo che gli spostamenti si distribuiscono lungo una sinusoide. Congelando invece lo spazio, cioè osservando come si muove nel tempo un singolo punto, notiamo nuovamente che la particella si muove lungo una sinusoide.einstein

E’ questa, in estrema sintesi, una delle manifestazioni della simmetria che coinvolge spazio e tempo. Ogni fenomeno fisico, quindi, si svolge in uno spazio quadridimensionale in cui il tempo è solamente una coordinata, esattamente come lo sono le coordinate spaziali. Lo scorrere del tempo, come noi lo percepiamo, non è altro che una illusione dei nostri sensi, che percepiscono il tempo come entità a sé stante ma che, invece, è indissolubilmente legata alle altre tre.

Il lavoro di Lorentz è alla base delle grandi scoperte di quella che, oggi, è diventata una icona della fisica moderna e dell’intelligenza in generale: Albert Einstein. Einstein generalizzò il lavoro di Lorentz nella teoria della relatività speciale, nel 1905.

Da quel giorno, il mondo non fu più lo stesso.

LidiMatematici va in pausa e torna tra due lunedì.

-> Vai al post su Maxwell e Einstein

Share
Pubblicato in Teoria e Pratica | Contrassegnato , , , , , , , , , , , , | Lascia un commento

Quel figlio che non ho…

gerbino_figliChe il tema della omogenitorialità sia difficile è indubbio, lo si capisce da subito dal  linguaggio evasivo, grigio e oscuro che la descrive: stepchild adoption, utero in affitto, unioni civili. Tutti termini che raccolgono una difficoltà culturale che è drammaticamente oggettiva, nel nostro paese.

Con l’aggravante che il tema torna di moda ogni qualvolta fa comodo al politico di turno, in un verso o nell’altro, per aumentare il proprio consenso. Nonostante le domande dell’editoria stampata, vedi Stefania Rossini sull’Espresso del 19 febbraio 2016, la posizione ufficiale della scienza tarda ad arrivare, e gli interventi di chi è qualificato veramente a partecipare a questo spinosissimo dibattito sono rari e sporadici.

Ed è in questa nicchia di assenze che si colloca “Quel figlio che non ho … Storie di donne e di uomini tra diritti, scelte personali e condizione umana”, di Claudio Gerbino, toccando tutti i temi più delicati e compiendo una operazione analitica di ampia visione prospettica:  dalle coppie o individui sterili in cui uno o entrambi i partner sono impossibilitati ad avere figli, all’omogenitorialità.

Il Dott. Gerbino, psicologo, psicoterapeuta e psicopedagogista, fondatore e direttore del Centro Koinè è stato già ospite in questo blog e, con questo libro, compie una operazione decisamente coraggiosa, se non a tratti scomoda.

Il libro conduce il lettore attraverso nove raccolte di storie tratte dall’esperienza quarantennale di psicologo e psicoterapeuta, di uomini e donne che vogliono avere un figlio a tutti i costi, che vorrebbero non averne, che fanno i conti con la frattura – spesso drammatica – tra motivazione, desiderio, obblighi morali indotti e sensi di colpa. Il decimo gruppo è invece preso dalle Sacre Scritture, ed è illuminante per comprendere meglio l’influenza culturale sul desiderio di avere un figlio, e della difficoltà che deriva dal non poterne o non volerne avere.

Nella seconda parte del libro il Dott. Gerbino compie una operazione difficile per il lettore, ponendo l’indice sull’aspetto essenziale del desiderio di avere i figli, o dell’impossibilità di non averne e del volerne ad ogni costo: la motivazione del genitore e i potenziali conflitti di questa con gli interessi del bambino.

E’ un tema scomodo, perché pone il lettore di fronte al proprio vissuto, e alla necessità di comprendere le motivazioni alla base della necessità di avere un figlio a tutti i costi. Avere un figlio per appianare i propri conflitti irrisolti è una soluzione purtroppo illusoria, così come basare le proprie scelte avocando il diritto, universale ed alienabile, ad avere figli senza aver prima risolto, o quanto meno indirizzato, il proprio vissuto. Soprattutto quando questo è fortemente conflittuale: le storie proposte nel libro parlano chiaro.

Si badi bene, non si tratta di una critica tout-court all’omogenitorialità, ma di una analisi con dati e casistiche cliniche alla mano. Mentre l’adozione in coppie omogenitoriali, così come nelle coppie eterosessuali, non mostra una differenziazione significativa nello stato di salute e di felicità del bambino, aspetto che il testo tratta e che riconosce in modo chiarissimo, il tema della maternità surrogata e, in genere, della separazione precoce tra genitori e figlio merita attenzione.

Una separazione troppo precoce del bambino dalla madre è infatti causa di grande sofferenza sia da parte che della madre che del bambino. La psicologa e psicoterapeuta Gabrielle Rubin analizza proprio l’impatto della privazione della reverie materna, cioè delle coccole e vezzeggiamenti che, dalla pancia della mamma, accompagneranno il bambino nell’infanzia e fonderanno una solida base di sicurezza emotiva per l’uomo che sarà, domani, quando vivrà la propria vita nel mondo e nella quotidianità.

Una trattazione coerente di questi temi impone che si analizzino in modo asettico e basato su solide osservazioni scientifiche proprio tutti i temi correlati al rapporto genitore figlio. Il testo riporta dati interessanti, da un lato l’assenza di uno o dei due genitori è un fattore di rilievo nell’equilibrio psichico del bambino. Le ricerche di Walter Toman mostrano come la perdita di uno dei due genitori in età precoce sia correlata con alcuni specifici disturbi della personalità, pur essendone – sia chiaro – un fattore non necessitante.

D’altra parte il mancato riconoscimento è un fattore importante nello sviluppo della psiche, che gioca purtroppo in negativo. Dell’impatto del mancato riconoscimento sul corpo e sulla memoria del corpo ci siamo occupati in passato: gli effetti provocati del mancato riconoscimento pongono l’individuo in una condizione in cui egli non è consapevole pienamente di non aver ricevuto adeguato soddisfacimento dei propri bisogni, mentre è il suo corpo a parlarne, spesso inascoltato.

La costellazione familiare, ovvero l’ordine di nascita del soggetto, gioca anche un ruolo importante, per cui non è infrequente che alcuni schemi inerenti al bisogno percepito di maternità e paternità si incrocino con specifiche configurazioni di fratelli, sorelle e genitori. Con tutto ciò che ne consegue: dal bisogno di emulazione di una situazione di presunta normalità alla necessità di ricreare una condizione percepita come rassicurante, frutto invece di mancanze e di conflitti non correttamente elaborati.

Il Dott. Gerbino fa un discorso apertamente e dichiaratamente politicamente scorretto sull’avere figli. E’ un diritto? Un bisogno? Una necessità? Se è un diritto, è inalienabile: come si concilia questo diritto con il diritto al benessere dei figli?

Un punto di vista da addetto ai lavori con un taglio divulgativo è necessario e soprattutto auspicabile, per aiutare il lettore ad orientarsi in modo informato e non settoriale su un tema di grande attualità.

Il libro è edito da KOINÈ – Centro Interdisciplinare di Psicologia e Scienze dell’Educazione®, ISBN 978-88-87771-41-1

-> Vai al Centro Koiné
-> Vai alla ricerca su adozione e omogenitorialità
-> Vai a “Il corpo e la sua memoria” 

Share
Pubblicato in Teoria e Pratica | Contrassegnato , , , , , , , , , , , , , , , , | Lascia un commento

Quale si riempierà prima?

qualesiriempieperprimaSempre più difficile occuparsi di divulgazione scientifica ai tempi del web, tra falsi quiz e post acchiappa-click, lo schema è sempre lo stesso: si propone uno pseudo-quiz affermando che solo un genio sarebbe in grado di risolverlo, mentre il quesito in questione è più o meno per cerebrolesi. In questo modo si capitalizza un monte di pageview e l’omo campa, se dice a Roma.

Stavolta il quiz, idiota esattamente come quelli in cui bisogna contare i quadrati e risolvere un banale calcolo aritmetico applicando le precedenze giuste tra operatori, con una piccola variazione consente di parlare – in modo serio – di fluidodinamica.

L’immagine di apertura a sinistra mostra 6 vasi comunicanti, con una paratia chusa tra la 2 e la 5. Non si capisce perché ci vorrebbe un genio a capire che la paratia è chiusa, ma l’occasione è troppo ghiotta per mostrare una parata di geni, quelli veri, che hanno formulato la matematica della dinamica dei fluidi.

Come potremmo risolvere lo stesso quiz, immaginando che tutti i vasi siano comunicanti? Quale si riempie prima? E perché?

Conoscendo quello che nella cultura popolare va come “principio dei vasi comunicanti”, la risposta è che si riempie prima il 2. Ma la cosa veramente interessante è il processo che ha portato il genere umano a comprendere questo principio, noto fin dai tempi dei Romani e usato proprio per distribuire acqua nelle Simon-stevinabitazioni.

Dobbiamo tutto a Simon Stevin, scienziato olandese vissuto a cavallo tra il XVI e il XVII secolo. Passato alla storia col nome latinizzato di Stevinus, poi italianizzato in Stevino, a lui dobbiamo contributi variegatissimi dall’ingegneria idraulica, alla matematica pura e applicata, dalla fisica alla geometria con incursioni persino nella teoria musicale. Un vero genio: non di quelli che contano i quadrati su Facebook.

L’espressione matematica della legge di Stevin, consente di calcolare la pressione p esercitata dal fluido in ogni punto. Nella sua forma semplificata è la seguente:

p = p0 + d g h

dove p0 è la pressione ambiente, d è la densità del fluido, g è l’accelerazione di gravità ed h è l’altezza della colonna di fluido. Uno dei risultati più interessanti di questa equazione è che la superficie del fluido è obbligata ad essere alla stessa altezza in tutti i vasi comunicanti e, soprattutto, che ciò accade sempre, anche mentre i vasi si riempiono e si svuotano. L’immagine a destra ne mostra un esempio pratico.ANIMvasicomunicanti

Se non fosse stato per il genio di Stevin, non avremmo compreso che la superficie di contatto tra liquido ed aria deve necessariamente essere una superficie a potenziale gravitazionale costante. E pensare che, per avere la definizione di potenziale gravitazionale, il genere umano ha dovuto attendere altri sessant’anni dalla morte di Stevin, con Newton, nel 1687.

Il motivo per cui si riempie prima la vasca numero 2 è immediatamente comprensibile osservando l’equazione. Supponendo di avere due superfici di altezza diversa, ovvero di avere un dislivello di fluido, avremmo anche una differenza di pressione. Se fosse – per assurdo – che in un vaso il fluido è alto h1 rispetto alla superficie dell’aria e in un altro è alto h2, applicando in questi due punti la formula di Stevin, avremmo:

p1 = p0 + d g h1
p2 = p0 + d g h2

ovviamente la pressione ambiente p0, la densità d e l’accelerazione gravitazionale g non variano, per cui la differenza di pressioni tra le due superfici si calcola come segue:

p2 – p1 = (p0 + d g h2) – (p0 + d g h1) = d g (h2-h1)

ovvero se le altezze sono diverse si genera una differenza di pressione sulle due superfici. E’ il motivo per cui il liquido nei vasi comunicanti ha sempre la stessa altezza rispetto alla superficie dell’aria. E non è tutto: torneremo sull’argomento in seguito.

Con buona pace dei geni da Social Network che contano quadrati, fiammiferi e che risolvono calcoli aritmetici applicando la precedenza giusta.

(Immagine da Wikipedia)

Share
Pubblicato in Teoria e Pratica | Contrassegnato , , , , , , , , | 7 commenti

Il Data Scientist, mestiere del terzo millennio

datamining2Tra le parole che ricorrono negli ultimi anni ce ne sono diverse che suonano parecchio misteriose, come Data Mining, Cognitive, Predictive Analytics. Sono termini che non trovano adeguato riscontro nel lessico italiano e, quindi, intraducibili. Ma dovremo sempre più spesso fare i conti con la realtà che sta dietro questa nuova terminologia, perché è una realtà importante che avrà un grosso impatto nelle nostre vite. Oggi vi parliamo di un mestiere che sarà sempre più in voga nel prossimo futuro, fortemente richiesto e decentemente remunerato: il Data Scientist.

Ormai parlare con il nostro telefonino è la normalità, eppure lo sviluppo di applicazioni basate su tecnologia Cognitive è frutto di un lungo e complesso processo di evoluzione basato su solidissimi modelli matematici. Modelli di cui ci siamo occupati a più riprese in questi anni e che richiedono figure professionali dedicate.

I modelli cognitivi sono infatti basati su sofisticate tecniche statistiche consolidate in vasti terreni di applicazione, quali il Predictive Analytics e il Data Mining. Si tratta di modelli che rendono le macchine “intelligenti”, nello specifico, in grado di identificare schemi ricorrenti in grandi quantità di dati e di formulare ipotesi e deduzioni su di esse.

Le aziende sono molto interessate alle tematiche di Data Mining, Analytics e Cognitive perché consentono loro da un lato di ridurre il costo dell’intervento umano in compiti relativamente semplici, come il risolvere un problema tecnico parlando con il cliente, e di ridurre l’incertezza del futuro formulando previsioni ad alto tasso di affidabilità.

7a63d225a85892e986a90602a4d8f641

In questo grafico Gartner illustra come il Predictive Analytics non solo concorra a ridurre l’impatto del lavoro umano nel lasso operativo che intercorre tra il reperimento dei dati, la loro analisi e le relative decisioni con conseguenti azioni di business, ma anche di rispondere a tutte le domande più spinose (o pain-point) del business. Cosa è accaduto? Perché è accaduto? Cosa accadrà? Cosa bisogna fare?

Cognitive ed Analytics possono sembrare due mondi distinti, e così appaiono ancora a molti ma, in realtà, sono basati entrambi sugli stessi processi, modelli e algoritmi matematici. Le aziende sono particolarmente interessate alle tematiche di Analytics perché consentono di centrare tre obiettivi. Il primo è di comprendere la natura e le relazioni interne ai dati aziendali, ormai disponibili in grande quantità. In questo modo si svelano relazioni che prima passavano inosservate e si ha la possibilità di osservare le misure caratteristiche del business, ovvero della modalità di funzionamento della azienda, in modo distaccato ed imparziale.

Il secondo obiettivo è di definire un modello in grado di spiegare i dati del passato. Con questo modello non è solamente possibile comprendere le dinamiche di business, ma di centrare il terzo fondamentale obiettivo: prevedere la dinamica futura.

Quanti visitatori avrò alla fiera? Qual’è il limite strutturale delle componenti tecniche? Quando posso attendermi un picco nel business e regolarmi di conseguenza, anticipandolo ed approfittandone al meglio?

Sono tutte domande vitali per le aziende, ed è proprio il Data Scientist ad essere chiamato a rispondervi. Il Data Scientist è una figura sempre più richiesta, dotato di una solida preparazione matematica con un certo background informatico (database, in primis), che opera lungo quattro direttrici fondamentali.main-qimg-d9f961a492f073fbfed7202ef5badf17

La prima è l’estrazione dei dati dalle sorgenti a disposizione in azienda. Queste sorgenti sono eterogenee e di natura estremamente variegata, come ad esempio informazioni anagrafiche, socio-economiche, comportamentali, indicatori specifici di performance aziendali, e molto altro.

La seconda attività del Data Scientist è di condurre una analisi statistica delle informazioni estratte. I dati estratti dalle sorgenti sono eterogenei per loro natura, perché provengono da fonti diverse, ed è proprio il Data Scientist che ne costruisce una visione integrata in termini di variabili esplicative di sintesi, ciascuna dotata delle relative statistiche. Questa attività è di grande interesse per le aziende perché consente di rappresentare in modo obiettivo una vasta quantità di fenomeni, come
ad esempio le differenze comportamentali di acquisto per fasce di età, reddito o collocazione geografica, o la tendenza ad abbandonare l’uso di un certo servizio o pool di servizi.

La terza importante attività del Data Scientist è di identificare raggruppamenti omogenei rispetto ad uno specifico obiettivo aziendale. Idprevisionelucca2014entificare omogeneità nel business è importante perché consente da un lato di ottimizzare le azioni sul mercato, e dall’altro di rendere profittevole ciascun cliente individuandone le esigenze sulla base dei propri pari. Un esempio per tutti è dato dalle campagne di marketing, oggi fastidiosissime perché invadenti. Con queste tecniche è possibile inviare il messaggio giusto alla persona giusta, anticipandone i bisogni.

Ed è proprio sull’anticipo dei bisogni, o sulla previsione, che è centrata la quarta importante direttrice di azione del Data Scientist: intercettare schemi del passato per formulare previsioni affidabili sul futuro. Grazie al mix di competenze matematiche ed informatiche, il Data Scientist è in grado di costruire e di realizzare strumenti informatici basati su modelli matematici che individuano gli schemi ricorrenti nei dati. Questi modelli sono in grado di formulare predizioni del futuro, corredandole di indicatori che riflettano l’effettiva probabilità che queste possano verificarsi. Un esempio di grande interesse per le aziende è il churn o abbandono. I modelli predittivi, opportunamente addestrati, consentono di identificare i clienti che abbandoneranno l’uso di un prodotto o servizio, prima ancora che ciò avvenga.

Il Data Scientist è, quindi, un mestiere che promette bene. Per diventare Data Scientist occorre una laurea in Matematica, Statistica, Fisica, Ingegneria o Informatica. Il resto, lo fa la caparbietà della persona e, ovviamente, il mercato.

Per i più curiosi, vi lasciamo con una serie di link di approfondimento.

-> Vai all’approfondimento su un caso d’uso in Predictive Analytics

-> Vai alla analisi della diffusione di Ebola

-> Vai al calcolo del limite teorico del record del mondo sui 100 metri piani

Share
Pubblicato in Scienza oggi | Contrassegnato , , , , , , | Lascia un commento