Archivio

Archive for the ‘Universo’ Category

Spazio e geometria – Parte III

Strutture su larga scala. L’Universo intero è costituito in gran parte da spazio e macro strutture quali ammassi, galassie, … dal punto di vista locale è molto disomogeneo.

Mano a mano che aumentiamo il fattore di scala, la disomogeneità dell’Universo diventa sempre meno evidente, tanto che per dimensioni maggiori di 100-150 Mpc, gli astronomi hanno dimostrato che possiamo considerare con molta buona approssimazione l’Universo omogeneo e assai vuoto: la densità media della materia è meno di un atomo d’idrogeno per m3 e lo spazio rappresenta l’ingrediente principale. Poniamoci ora la stessa domanda: qual è la geometria del nostro Universo? Che proprietà possiede? Sappiamo già dalla Teoria della Relatività che la massa curva lo spazio-tempo, quindi di conseguenza, quando consideriamo sistemi planetari, galassie, super ammassi … anche il nostro universo è localmente curvo, in altre parole non è piatto, ha curvatura positiva ovvero non vale più la geometria euclidea. Possiamo generalizzare questo concetto? La capacità di identificare la geometria dell’Universo (piatta, positiva o negativa) è legata alla quantità di materia totale in esso contenuto.

Torniamo un attimo indietro nel tempo, e precisamente nel 1929, quando a formulò, grazie alle sue osservazioni sulle cefeidi con il telescopio di Monte Wilson, la legge che porta il suo nome. Le ipotesi di base per la validità della legge (empirica) di Hubble sono la presenza di un Universo isotropo ed omogeno:

  • isotropo: significa che il comportamento dell’Universo è uguale in ogni direzione.
  • omogeno: perché non esiste un punto di vista preferenziale dello spazio all’interno del nostro Universo: qualsiasi luogo dell’Universo è staticamente equivalente.

Questi due ipotesi sono alla base di quello che i cosmologi chiamano principio antropico. La legge di Hubble dice che:

V = H0 * D

Dove v è la velocità radiale di recessione, H0 è la costante di Hubble e D è la distanza dell’oggetto dall’osservatore. Dal punto di vista storico, la costante di Hubble, a dispetto del nome, cambia nel tempo (grazie a misure di spettrografia più precise). Il più recente e accurato valore di H0 è 67,15 Km/s/Mps.

Legge di Hubble

Legge di Hubble. Fonte: vialattea.net

La legge sancisce che, considerato qualsiasi punto P dell’Universo, le galassie si allontanano da esso in maniera proporzionale di un fattore H0 simmetricamente in ogni direzione. L’effetto recessivo delle galassie viene misurato con analisi dello spettro; si nota infatti che le linee spettrali delle componenti galattiche sono più spostate verso la lunghezza d’onda del rosso, rispetto al caso in cui le galassie abbiano una posizione relativa statica. Questo effetto viene chiamato red-shift e consiste in almeno due componenti:

  • red shift gravitazionale: dovuto al moto proprio delle galassie influenzate dalla galassie vicine.
  • red shift cosmologico: dovuto alla creazione dello spazio tempo nell’Universo e che trascina con esso le galassie, come la trama di un palloncino che si gonfia separa sempre più due punti qualsiasi sulla superficie dello stesso. E’ la causa dell’espansione dell’Universo.

La componente cosmologica è di gran lunga maggiore di quella gravitazionale, che pertanto, per il nostro obiettivo, possiamo trascurare. Dato che la forza di gravità è attrattiva, e il nostro Universo si sta espandendo, la domanda che ci poniamo è la seguente: la quantità di materia dell’Universo (sia barionica che oscura) è sufficiente ad arrestare l’espansione, oppure è troppo poca?

C’è un trait d’union molto importante fra la quantità di materia (o densità) nell’Universo, e tipo di geometria che è stato rilevato da Friedmann (1888 – 1925) nel 1922 – prima ancora che Hubble scoprisse la sua legge – in cui si lega l’espansione dell’Universo con le equazioni della relatività sotto le ipotesi di validità del principio antropico. Friedmann espose come, in funzione della densità critica, si possa determinare la geometria dell’Universo e quindi la sua curvatura. In particolare, definì il valore limite di densità critica:

ρ0 = 3 H02 / (8 * π *G)

come valore di separazione fra uno Universo chiuso o aperto: il valore ρ0 rappresenta un valore limite. Se ci fosse una quantità di materia insufficiente a contrastare la gravità allora l’espansione sarà inarrestabile e il nostro Universo avrà una curvatura negativa. Contrariamente, se ci fosse abbastanza materia a sovrastare la forza gravitazionale l’espansione si arresterebbe e la gravità avrebbe il sopravvento: questo implica che il nostro Universo avrebbe una curvatura positiva. Esiste anche una terza via, ovvero che nell’Universo è presente una quantità di materia in grado di contro bilanciare esattamente la forza di espansione in modo tale che l’espansione decelererà fino ad arrestarsi (in un tempo infinito).

La faccenda si riduce quindi a calcolare Ω = ρ / ρ0, dove ρ rappresenta la densità di materia totale nell’Universo e vedere in quali dei seguenti tre casi ricadiamo:

  • Ω < 1: l’Universo ha curvatura negativa, quindi in una geometria iperbolica.
  • Ω > 1: l’Universo ha curvatura positiva, quindi in una geometria ellittica.
  • Ω = 1: l’Universo è piatto, quindi in una geometria euclidea.

Allo scopo di determinare il valore di ρ, gli astronomi hanno continuato il loro lavoro di esplorazione percorrendo a ritroso nel tempo la storia dell’Universo. Come in un vecchio nastro che si riavvolge per tornare al capo, così gli astronomi fecero per studiare gli istanti iniziali del Big Bang pensando di trovarsi di fronte ad un Universo in decelerazione. Lo studio della radiazione cosmica di fondo (Cosmic Microwave Background Radiation) è stato di basilare importanza per lo studio della forma dell’Universo. Grazie ad esperimenti con palloni aerostatici (BOOMERANG e MAXIMA) e all’utilizzo di missioni satellitari (COBE, WMAP e Planck) abbiamo un’immagine molto definita dell’eco del Big Bang espressa in termini di una radiazione a microonde (pari ad una temperatura di corpo nero a 2,7 K) che permea tutto lo spazio.

Radiazione cosmica di fondo

Radiazione cosmica di fondo. Fonte: en.wikipedia.org

Il fatto interessante è che tutta la quantità di materia che abbiamo oggi nell’Universo è descritta dalla distribuzione di radiazione raccolta dalle sonde quando l’Universo aveva l’età di circa 380.000 anni. Tramite l’analisi delle fluttuazioni dello spettro della radiazione di fondo, è possibile calcolare con precisione:

  • Grandezza delle macchie e fluttuazioni di temperatura
  • Dimensioni angolari e distribuzione delle anisotropie.
  • Effetti di diffusione della luce (gli effetti di scattering).

Tutti questi elementi consentono di giustificare la distribuzione spaziale di materia (e quindi implicitamente la densità di materia) nell’Universo, cioè la curvatura dell’Universo così come lo vediamo oggi.

La CMBR contiene tutte e sole le informazioni di cui hanno bisogno i cosmologi per lo studio della geometri dell’Universo, in particolare il contributo percentuale di ognuno al valore finale di densità di materia complessiva.

Spettro di potenza della CMBR

Spettro di potenza della CMBR

Gli astrofisici hanno così individuato che l’Universo è costituito da diversi tipi di materia:

  • Materia barionica (quella che si può vedere e toccare, per intenderci): la sua densità ρbar rappresenta circa il 4% della densità totale di materia.
  • Materia oscura: è responsabile dell’esistenza dei grossi ammassi di galassie in termini di coesione gravitazionale. Gli astronomi hanno dedotto che questa rappresenta circa il 30% di tutta la materia (densità ρosc).

Con questi valori di percentuale, manca ancora una frazione notevole di massa per giustificare la quantità totale materia pari a circa 70%. Per trovarla dobbiamo tornare negli anni ’90 quando lo studio di Supernovae Ia rivelò che l’Universo sta accelerando: gli astrofisici hanno messo in relazione la percentuale di densità mancante (ρesp) con la quantità di massa-energia che sta causando l’espansione dell’Universo. Si tratta di una forma di energia non gravitazionale, che gli astronomi suppongono sia legata alla densità di energia del vuoto (ad oggi non abbiamo altre certezze) ed è stata introdotta per permettere alla densità di materia di raggiungere il valore critico che già si registra nello spettro delle fluttuazioni di temperatura della CMBR. In pratica dai risultati delle missioni spaziali ricaviamo il valore di densità critica, sappiamo che l’Universo accelera, che l’accelerazione è causata da una forma di energia (oscura), e mettiamo in relazione questa quantità mancante l’energia oscura in modo che tale quantità raggiunga il valore di ρ rilevato dalle misurazioni. Nessuno sa ancora di cosa sia costituita questa forma di massa-energia oscura, ma gli astrofisici la mettono in relazione con L, ovvero la costante cosmologica che Einstein nel 1917, introdusse nelle equazioni della Relatività generale, per giustificare – secondo la sua interpretazione – un universo statico. Possiamo quindi dire che la densità di materia dell’Universo è la somma di tre termini:

ρ = ρbar + ρosc + ρesp

Queste analisi hanno portato alla conclusione che viviamo in un Universo la cui densità di materia complessiva ρ è molto vicina al valore critico ρo con una percentuale di errore molto piccola, pari al 2%. Ciò vuol dire un valore di Ω molto vicino a 1: incredibilmente questo valore ci porta alla conseguenza più evidente che ad oggi:

Compatibilmente con gli errori di misura, il nostro Universo è piatto o molto vicino alla piattezza, senza bordi ne confini, con un orizzonte dell’Universo visibile pari a 13,7 miliardi di anni luce, all’interno del quale valgono i teoremi e le preposizioni della geometria euclidea, descritta e studiata già 2300 anni fa da un matematico greco.

Bibliografia

  • Amedeo Balbi: La musica del Big Bang – Springer Edizioni

Spazio e geometria – Parte II

Strutture su media scala. Quando parliamo di strutture su media scala aumentiamo le dimensioni del nostro orizzonte visivo: questo ci consente di percepire nuovi dettagli ed una migliore visione d’insieme. Consideriamo quindi l’orbita di un pianeta intorno alla propria stella: Keplero nel XVII secolo definì le leggi che governano i moti dei pianeti e Newton, poco dopo, definì la legge di gravitazione universale. Newton la definì come una forza attrattiva che agisce su tutti i corpi e che, in particolare per il nostro pianeta, lo costringe a orbitare intorno alla propria stella con un’orbita ellittica.

Nel 1915 Albert Einstein formulò la Teoria della Relatività Generale e cambiò il concetto di gravità: la gravità deforma la geometria dello spazio – temporale intorno alla massa ed il pianeta si muove lungo queste deformazioni.Indispensabile per l’elaborazione della teoria fu lo studio del trattato su calcolo differenziale assoluto con coordinate, ovvero sul calcolo tensoriale su una varietà riemanniana, scritto dai matematico italiani Ricci Curbastro (1853 – 1925) e Tullio Levi Civita che fornì un framework in grado di descrivere come spiegare la geometria e la dinamica dei corpi basandosi sul calcolo tensoriale.

Ecco l’equazione di campo della relatività generale:

Equazione di campo della Relatività Generale

Equazione di campo della Relatività Generale

dove G è la costante di gravitazione universale, Rμν è il tensore di curvatura, R la curvatura scalare, Tμν il tensore energia e gμν è il tensore metrico. I tensori sono matrici (4 x 4) in cui sono estese le tre dimensioni spaziali e quella temporale. Rμν descrive la geometria dello spazio-tempo (la metrica) mentre Tμν descrive la distribuzione della massa-energia ed il momento. La formula si può tradurre nella seguente massima di John Wheeler:

La massa dice allo spazio come curvarsi e lo spazio dice alla massa come muoversi.

La forza di gravità è la manifestazione che la nostra geometria è distorta e qualcuno, o qualcosa, si muove in uno spazio curvo. Anche quando lasciamo cadere un oggetto, esso cade verso il basso attratto dalla forza di gravità e segue una traiettoria che è coerente con la deformazione spazio temporale generato dal campo di gravitazione terrestre.

Ma secondo quale criterio la massa si muove nella curvatura spazio-temporale? Facciamo un passo indietro: su una superficie piana (geometria euclidea) la distanza più corta che unisce due punti è una retta. Questa traiettoria si chiama geodetica ed è il percorso che segue un raggio di luce. In uno spazio curvo, come nei dintorni di una stella (o di un buco nero), la luce percorrerà sempre una geodetica, cioè il percorso più breve, ma relativa alla geometria in cui è immersa. Dal nostro punto di vista la luce percorrerà un tratto curvo nei pressi della massa perché lo spazio viene curvato dalla gravità, ma comunque la luce percorrerà il cammino più breve nello spazio-tempo curvo.

L’eclissi solare del 1919 (quella che confermò sperimentalmente la teoria della relatività generale), dimostrò per esempio che i raggi di luce provenienti dalle stelle occultate dal Sole durante l’eclissi subivano una deflessione gravitazionale e pertanto, le stelle vicino al disco solare apparivano in una posizione più esterna rispetto alla loro posizione originale.

In linea teorica anche Gauss che condusse il suo esperimento avrebbe dovuto osservare una geometria non euclidea, ma siccome il triangolo era costruito su brevi distanze (circa 100 Km) la curvatura dello spazio sarebbe stata molto piccola non rilevabile dagli strumenti di misura. Gauss non poteva condurre esperimenti di curvatura sullo spazio fuori dalla Terra, oggi invece si può: basta andare …. nello spazio. Supponiamo di misurare la distanza fra due oggetti, ad esempio la distanza Terra e Marte, mandando per esempio un fascio laser verso destinazione e ritorno. Ebbene, proprio a causa della curvatura dello spazio causato dal passaggio dei fotoni nei pressi di una massa, questi ultimi impiegherebbero un tempo superiore rispetto al caso facessero lo stesso percorso in assenza delle due masse (Terra e Marte). I fotoni comunque continuerebbero a percorre una distanza che, nella loro metrica, ed in uno spazio curvo rappresenta la distanza più breve che unisce sorgente e destinazione. Questo effetto si chiama effetto Shapiro, e prende il nome dall’astronomo Irwin Shapiro (1929) che l’ha scoperto a metà degli anni ’60. Più recentemente, nel 2004, la NASA lanciò il satellite Gravity Probe B allo scopo di misurare la curvatura spazio-temporale causata dalla Terra. Il satellite orbitava ad un’altezza di 650 Km e portava con sé quattro giroscopi a forma perfettamente sferica ed un telescopio di puntamento (per misure di riferimento). Grazie alla misura della variazione della direzione di puntamento dei giroscopi rispetto a dei punti di riferimento stellari fissi, la strumentazione fu in grado di verificare con estrema sensibilità:

  • L’effetto geodetico: di quanto la Terra altera lo spazio tempo in cui è immersa.
  • L’effetto frame – dragging: di quanto la rotazione terrestre trascina e torce il suo spazio tempo intorno a se durante il suo movimento di rotazione.

I risultati della missione erano in accordo con la teoria di Einstein. La geometria che nasce dall’applicazione della Relatività Generale funziona molto bene su strutture come il nostro Sistema Solare, ma se vogliamo generalizzare e capire la struttura della geometria del nostro universo allora dobbiamo introdurre nuovi concetti di cosmologia, ovvero la scienza che studia l’Universo nel suo complesso (continua).

Bibliografia e immagini

Spazio e geometria – Parte I

Cosa possiamo dire della forma dello spazio intorno a noi? Quali fattori influenzano la geometria dello spazio del nostro Universo?

Il problema I nostri concetti di geometria ‘classica’, ci riportano a quello che ci hanno insegnato a scuola su rette, triangoli, poligoni e si basa su cinque postulati.

  • Per due punti passa una e una sola retta.
  • Una linea retta può essere prolungata a piacere.
  • Dato un punto e una lunghezza R è possibile descrivere un cerchio avente come centro il punto e come raggio R.
  • Tutti gli angoli retti son tra loro uguali.
  • Data una retta e un punto esterno a essa passa una ed una sola retta parallela a quella data.

 

Frammento del secondo libro de “Gli Elementi” – Proposizione 5

Frammento del secondo libro de “Gli Elementi” – Proposizione 5 – Fonte: • http://www.math.ubc.ca/~cass/Euclid/papyrus/papyrus.html

Questo tipo di geometria si chiama euclidea perché studiata da Euclide (nel III secolo a.C.) è descritta ne ‘Gli Elementi’, uno dei libri più tradotti al mondo, e su basa su questi postulati. Per molto tempo i più noti matematici si sono chiesti se il quinto postulato fosse indipendente dagli altri quattro, oppure fosse superfluo e quindi dimostrabile dagli altri quattro.

Nel XXVIII secolo, Lobacevskij e Bolyai, nella ricerca di una dimostrazione mostrarono che cambiando l’ultimo postulato, potevano nascere geometrie alternative e consistenti ugualmente valide; essi modificarono così il quinto postulato come segue:

  • Data una retta e un punto esterno ad essa, passano infinite rette parallela a quella data., e posero le basi della geometria iperbolica.

In seguito Riemann nel XIX secolo, costruì una terza geometria modificando invece il V postulato come segue:

  • Data una retta e un punto esterno ad essa, non esistono rette parallela a quella data e creò gettò le basi della geometria ellittica.

Una conseguenza diretta nella scelta della geometria è la seguente: nella geometria euclidea la somma degli angoli interni di un triangolo è 180°, nella geometria ellittica è maggiore di 180° e nella geometria iperbolica è minore di 180°.

 

Differenti tipi di geometrie

Differenti tipi di geometrie in 2D

La figura precedente mostra un esempio per tre tipi di geometria in uno spazio bidimensionale: ovviamente (la cosa piace molto ai matematici) il problema si può generalizzare in uno spazio N-dimensionale e la superficie corrispondente si chiama varietà di Riemann. Una geometria euclidea in particolare è una varietà piatta, una geometria iperbolica è una varietà a curvatura negativa ed infine una geometria ellittica è una varietà a curvatura positiva.

Capire quindi in che tipo di geometria siamo immersi, ovvero che geometria può descrivere meglio lo spazio in cui viviamo, ha quindi conseguenze dirette su tutto ciò che ci circonda e sui fenomeni che accadono nell’Universo.

Il problema: Lo spazio in cui viviamo, in cui giace il Sistema Solare, la nostra Galassia è piatto o curvo? E il nostro Universo invece? Per affrontare il problema dobbiamo definire tre livelli di analisi in cui ognuno di questi può considerarsi il caso particolare della struttura più grande che lo contiene:

  • Strutture del nostro Universo su piccola scala.
  • Strutture del nostro Universo su media scala.
  • Strutture del nostro Universo su grande scala.

Sappiamo tutti che, nonostante la Terra sia sferica, essa può apparire localmente piatta nell’intorno ad un abitante sulla sua superficie proprio perché le sue dimensioni sono molto maggiori dell’osservatore. Se saliamo di dimensione però (aumentiamo la scala) notiamo invece che la Terra ha una superficie a curvatura positiva.

Esperimento di Gauss sulla curvatura dello spazio

Esperimento di Gauss sulla curvatura dello spazio

Strutture su piccola scala Friedrich Gauss (1777 – 1855), prolifico matematico tedesco, nel 1830 fu il primo a cercare di capire se, lo spazio in cui viviamo, è affetto da curvatura. Per questo motivo si recò su un monte e fece una misura di triangolazione con altre due sommità molto distanti (circa 100 Km) in linea di visibilità. L’idea di base è la stessa spiegata in precedenza: se siamo immersi in uno spazio euclideo allora la somma degli angoli interni del triangolo che ha per vertici le tre sommità delle montagne è 180°. In linea di principio l’esperimento è logicamente corretto; le sue misurazioni riportarono un valore di 180°; tuttavia non poté dedurre nulla, in quanto le sue misurazioni erano affette da errori dovute sia ad imprecisioni che a strumenti di misura (continua).

Bibliografia e immagini

Le onde gravitazionali – Parte II

“Vola Marisa, vola …”

VIRGO è un interferometro nato da una collaborazione italo – francese con sede a Cascina (Pisa); si basa sullo stesso principio di VIRGO ma possiede una lunghezza delle braccia inferiore (3 Km) ed una diversa sensibilità. La possibilità di avere più sistemi di interferometri che lavorando assieme e analizzano lo stesso segnale dallo spazio in istanti temporali differenti, consente di migliorare l’identificazione della direzione di arrivo dell’onda (Direction Of Arrival); questo si traduce nell’avere una incertezza angolare della DOA più piccola grazie ad operazioni di deconvoluzione sul segnale ricevuto. Avere un sistema di interferometria basato su più rilevatori sparsi per il mondo, consente inoltre ai fisici di ridurre in termini di probabilità il numero di falsi segnali positivi che potrebbe registrare un interferometro del sistema.

Purtroppo VIRGO al momento dell’evento era spento (entrerà a pieno regime nell’autunno 2016), quindi non ha potuto registrare nulla, ma come hanno fatto gli astronomi a decifrare il segnale e stabilire che, per esempio, l’evento registrato il 14 settembre 2015 si trattava proprio di una coppia di buchi neri?

Grazie ad Einstein, i fisici sono in grado di calcolare a priori quale sarà il modello e la forma del segnale da ricercare per ogni possibile tipologia di sorgente; così sanno per esempio la forma d’onda del segnale generata dalla collisione di due buchi neri, la collisione fra un buco nero ed una stella di neutroni, etc. Anzi, possono fare anche di più: per ogni tipologia di sorgente sono in grado di trovare soluzioni numeriche anche al variare della massa totale del sistema.

 

Segnali dell'evento GW150914

Segnali dell’evento GW150914

 

Quando gli interferometri rilevano un segnale (una volta esclusi i falsi positivi, ridotto il rumore di fondo ed esclusi i segnali spuri) i fisici confrontano con le forme d’onda generate con modelli precalcolati; tra questi ultimi poi scelgono il candidato migliore con tecniche di pattern matching ed analisi statistica. Queste analisi, incluso la ricerca delle soluzioni dei modelli – campione, vengono effettuate da software dedicato.

Una volta determinato il tipo di sorgente, bisogna localizzare la DOA, ed è proprio a questo punto che entrano in gioco il numero d’interferometri in grado di rilevare lo stesso evento in instanti successivi: questo consente di restringere la zona di cielo di provenienze della sorgente utilizzando tecniche di deconvoluzione del segnale (nota la frequenza e la distanza fra le antenne degli interferometri). Per dare un’idea, secondo il Prof. Passuello dell’Istituto Nazionale di Fisica Nucleare (INFN), con due interferometri si può identificare la provenienza di una sorgente di onde gravitazionali in uno spicchio di cielo di 100°; con tre interferometri (ed è per questo importante che anche VIRGO inizi a funzionare) la zona di cielo si restringe a una zona di diametro pari a quello lunare.

Anche l’hardware, ovvero le apparecchiature fisiche, hanno un ruolo fondamentale: devono essere in grado di effettuare misurazioni estremamente piccole in condizioni critiche. I progettisti hanno dovuto affrontare problemi non indifferenti. Ecco una breve elenco di caratteristiche di progettazione riferito al progetto italiano VIRGO (dati del Prof. Passuello – INFN):

  • Devono essere in grado di identificare come rumore ed ignorare anche le più piccole vibrazioni sismiche; questo viene risolto tramite l’uso di super attenuatori.
  • Devono essere in grado di riconoscere e resistere anche alle piccolissime variazioni di pressione (10-12 bar); un ingegnoso sistema di filo a piombo a cascata consente di ridurre l’oscillazione tra la punta e la base del pendolo, ove viene installata la massa di riferimento (specchi).
  • Il fascio laser monocromatico deve essere stabile e puro (una λ costante) così da non inficiare la misura di buio – luce al rilevatore.
  • Gli specchi, sui quali viene riflesso il fascio laser, devono essere fatti di SiO2 pura, fissati su componenti monolitiche ed avere una bassa rugosità (10-8m) per diminuire l’effetto di dispersione della luce.
  • All’interno dei tubi in cui viaggia il segnale non ci deve essere aria; pertanto è necessario mettere sotto vuoto il percorso della luce. Il sistema VIRGO è in grado di creare nell’anima del tubo un volume vuoto molto spinto, pari a circa 10-7
  • Il rumore termico, sempre presente a T maggiori dello zero assoluto, va ridotto drasticamente.; pertanto l’interferometro deve lavorare a temperature criogeniche.

Tornando all’evento di settembre, i due buchi neri ruotando a spirale intorno ad un comune centro di massa, si sono compenetrati tra loro rilasciando una grande quantità di massa – energia trasformata in un’onda gravitazionale giunta sino a noi. I due buchi neri avevano massa pari a 36 e 29 masse solari e la loro fusione, avvenuta in circa 0,2 sec ad una velocità che è passata da 0,3 c a 0,6 c, ha dato origine ad un unico buco nero con massa pari a 62 masse solari. La massa mancante, secondo la formula di Einstein ∆E = mc2, pari a 36 + 29 – 62 = 3 masse solari, è stata convertita in energia sotto forma di onda gravitazionale che si è propagata nello spazio e giunta sino a noi. L’energia in gioco è stata altissima, basti pensare che neanche il nucleo del nostro Sole in tutta la sua esistenza riuscirà a generare una quantità simile di energia.

Modello, onda gravitazionale e parametri dei due buchi neri

Modello, onda gravitazionale e parametri dei due buchi neri

Perché studiare le onde gravitazionali? Eventi come questi sono molto importanti perché consentono agli astronomi di aprire nuove frontiere di studio nel campo della cosmologia; la cosmologia attuale si basa sul modello del Big – Bang e sullo studio della radiazione cosmica di fondo CMBR (Cosmic Microwave Background Radiation): sappiamo che quest’ultima a causa delle interazioni con la materia, pone un limite alla finestra temporale allo studio dell’Universo posto a circa 380000 anni dal Big Bang.  Le onde gravitazionali hanno invece la caratteristica di non interagire con la materia circostante: durante la fase inflazionaria del nostro Universo, le asimmetrie nella distribuzione della materia, possono aver generato onde gravitazionali che hanno viaggiato – ed ancora viaggiano – per l’Universo.

È un nuovo metodo di studio dell’Universo; inoltre poiché dall’intensità dell’evento è possibile risalire alla distanza della sorgente, questo ci consente di misurare in maniera molto precisa le distanze nell’Universo. Data l’importanza strategica dello studio delle onde gravitazionali, nel futuro ci son proposte per altri progetti, oltre a VIRGO, sia sotto terra sia nello spazio.

Nel primo caso lo scopo è di aumentare la sensibilità della strumentazione essendo maggiormente al riparo da interferenze sismiche, mentre lo spazio ci consente di ottenere misure ancora più precise (le masse di riferimento son sospese nel vuoto). In quest’ultimo caso esiste un progetto congiunto ESA –NASA chiamato LISA (Laser Interferometer Space Antenna), che consiste nel piazzare in orbita intorno al Sole ad una distanza pari ad 1 u.a. un sistema di interferometri satellitari che seguono l’orbita terrestre.

Ancora una vota, a più di 100 anni dalla pubblicazione della Teoria della Relatività, Einstein aveva ragione.

Bibliografia

  • Passuello INFN – Rivelare e misurare l’impossibile – Conferenza tenuta presso Osservatorio Astronomico di Brera

 

Le onde gravitazionali – Parte I

“Vola Marisa, vola …”

È di questi giorni (Giugno 2016) la notizia che i fisici hanno confermato la registrazione di un secondo evento avvenuto nel dicembre 2015 responsabile di un’onda gravitazionale che ha investito gli interferometri LIGO (Laser Interferometer Gravitational – Wave Observatory) negli USA (ad Hanford e Livingston); nel presente articolo vedremo brevemente cosa sono le onde gravitazionali, come nascono e come rilevarle.

Iniziamo con una definizione i cui termini verranno di seguito approfonditi:

Le onde gravitazionali sono deboli increspature della trama spazio – temporale che si propagano nello spazio a velocità della luce; esse sono prodotte da qualsiasi sorgente (corpo celeste) con ‘grande massa’ sottoposto ad accelerazione relativistica.

Le onde gravitazionali sono previste dalla Teoria della Relatività Generale (1915) come soluzioni particolari di campo delle equazioni di Einstein che si propagano lo spazio modificandone la curvatura e la geometria. Per definizione quindi qualsiasi oggetto di massa grande o piccola è in grado di produrle, ma ovviamente solo per enormi masse e con strumenti di misura estremamente sensibili si è in grado di rilevarle: stiamo parlando di masse come quelle di buchi neri e/o di stelle di neutroni (per piccole masse l’effetto è completamente trascurabile). Gli effetti di un’onda gravitazionale sono maggiormente intensi quando i nostri attori sono sistemi binari costituiti da una combinazione degli oggetti precedenti perché solo in questo modo gli effetti sono (teoricamente) rilevabili da una sofisticata strumentazione.

Ogni onda è associata un’impronta riconoscibile definita da parametri in termini di ampiezza e frequenza dal quale è possibile risalire all’evento che l’ha generata. La casistica comprende le seguenti tre tipologie:

  • Sistemi binari coalescenti: ovvero stelle di neutroni e/o buchi neri che si fondono in un unico corpo. Durante la loro “danza” fino al momento di coalescenza vengono prodotte onde gravitazionali.
  • Supernove: stelle con almeno 8 masse solari, il cui involucro esterno durante il collasso trova negli strati inferiori un nucleo denso e compatto: questo provoca un’onda d’urto di ritorno con conseguente espulsione di materia e generazione di onde gravitazionali in bande di frequenza differenti.

In entrambi i casi l’emissione di onde gravitazionali riguardano fenomeni associati a periodi limitati nel tempo e la rilevazione dell’onda gravitazionale è difficile in quanto è rilevabile solo per un periodo limitato.

  • Pulsar: ovvero stelle di neutroni in rotazione: in questo caso, a differenza dei casi precedenti la sorgente è continua, ovvero emette sempre con continuità onde gravitazionali, quindi teoricamente sempre rilevabili.

Qui sotto c’è il diagramma che mette in relazione la frequenza delle onde gravitazionali associate con i tipi di sorgenti sopra elencati: notare come per sistemi di rilevazioni diversi (e quindi sensibilità diverse della strumentazione) sono associati a differenti tipologie di segnali rilevabili.

 

Storicamente è stato lo studio col telescopio di Arecibo di un sistema binario di pulsar (stelle di neutroni) a far supporre che il motivo del rallentamento del loro periodo orbitale (misurabile dalla diminuzione del momento angolare) fosse dovuto ad un rilascio di energia sotto forma di emissione di onde gravitazionali. Si è trattato del sistema PSR1913+16 (nella costellazione dell’Aquila) che emette il suo segnale in direzione della Terra: uno studio che è valso agli astronomi Russel Alan Hulse e Joseph Hooton Taylor il premio Nobel per la fisica nel 1993. I dati annuali raccolti sperimentalmente di diminuzione del periodo orbitale del sistema mostrati qui sotto, ha mostrato un perfetto accordo con la previsione teorica secondo la Relatività Generale.

 

Lo studio precedente risalente agli anni ’70 fu il primo in grado di mettere in correlazione una misura radio telescopica con l’ipotesi di generazione di onde gravitazionali; tuttavia già negli anni ’60 vennero sviluppati strumenti per la rilevazione basati su effetti di risonanza di barre risonanti. L’esperimento consisteva nella progettazione e dimensionamento di una barra metallica sospesa posta a bassissima temperatura in grado di vibrare come un diapason in caso di passaggio di un’onda gravitazionale ad una frequenza pari a quella di risonanza della struttura: il segnale veniva quindi amplificato e convertito da un’elettronica dedicata. L’esperimento non portò i risultati cercati a causa delle sensibilità degli strumenti, della banda di frequenze risonanti della barra e le ampiezze molto deboli del segnale da rilevare. I decenni successivi hanno visto nascere nuovi progetti che hanno fatto uso di metodologie alternative basate sulla distorsione dello spazio tempo: lo scopo in questo caso è quello di misurare le minime variazioni di distanza (dell’ordine di 10-18 m) fra due masse molto vicine fra loro in tempi brevissimi (10-21 sec).

Quando parliamo di distorsione spazio – temporale intendiamo una effettiva deformazione della trama spazio temporale in cui siamo immersi nella direzione del fronte d’onda. Per introdurre un’analogia bidimensionale, se lo spazio – tempo fosse un lenzuolo sarebbe come se qualcuno lo deformasse stirandolo e comprimendolo nelle due direzioni ortogonali, causandone una variazione di lunghezza su entrambi gli assi. Pensare che anche lo spazio possa deformarsi come un oggetto può sembrare contro intuitivo ma Einstein ha dimostrato che la realtà che ci circonda si comporta così: ben inteso che stiamo parlando di deformazioni infinitesime, ma comunque presente.  La figura seguente mostra in maniera molto esagerata della distorsione spaziale a seguito del passaggio di un’onda su una serie di masse A, B, C, D sospese poste ad una uguale distanza fra loro.

Distorsione dello spazio tempo

Distorsione dello spazio tempo – Disegno dell’autore

 

Come si vede le distanze AB e CD variano periodicamente sotto gli effetti della distorsione spaziale; questo effetto di variazione di isotropia spaziale, sono alla base degli interferometri LIGO (https://www.ligo.caltech.edu) e VIRGO (https://www.ego-gw.it).

Il progetto LIGO è costituito da due interferometri – a Livingstone e a Hanford – ed è gestito dal MIT/Caltech ed è quello che ha registrato gli eventi del 14 settembre 2015 e del 26 dicembre 2015. Esso è costituito da due tubi a vuoto ortogonali fra loro a forma di L, lungo 4 Km ciascuno, all’estremità dei quali ci sono due specchi sospesi. Da uno delle due braccia una sorgente S(λ) genera una luce laser monocromatica altamente stabile che viene deviata da uno splitter ottico; ognuno dei due segnali ‘splittati’ viene riflesso dagli specchi posti alle estremità (ovvero le masse di riferimento), si ricongiungono con il combinatore e il segnale risultante colpisce un rilevatore R. In situazioni normali, il rilevatore genera buio, ovvero i segnali provenienti dalle due braccia si annullano a vicenda, mentre nel caso di passaggio di un’onda gravitazionale a causa della distorsione dello spazio – tempo, il laser avrà percorso una distanza diversa in ogni braccio e darà luogo ad una figura di luce in termini di interferenza sul rilevatore (continua).

 

Bibliografia

  • Passuello INFN – Rivelare e misurare l’impossibile – Conferenza tenuta presso Osservatorio Astronomico di Brera

Il Modello Standard – Proprietà

Riprendiamo lo schema iniziale del Modello Standard visto qui con la rappresentazione degli elementi costituenti la materia assieme alle particelle mediatrici di forza e iniziamo a fornire una prima classificazione della stessa lasciando da parte il bosone di Higgs.

La materia si divide in:

  • adroni (forte, in greco): composta da quark e sensibili alla forza forte e debole.
  • leptoni (sottile, in greco): prendono parte alle interazioni e sentono la forza debole.

Gli adroni a sua volta si dividono in:

  • barioni: sono particelle costituite da 3 quark, come il protone ed il neutrone. La materia barionica in sostanza costituisce tutto ciò che possiamo vedere e toccare con mano.
  • mesoni: son particelle costituite da due quark come i pioni. Essi si trovano, per esempio, nei raggi cosmici.

I barioni e leptoni fanno parte della famiglia dei fermioni (le prime tre colonne dello schema), ovvero son particelle dotate di massa e dotate di spin semi-dispari; i bosoni invece son particelle che hanno spin intero ed obbediscono alla statistica di Bose-Einstein; tutte le particelle elementari mediatrici delle forze elementari (quarta e quinta colonna) sono bosoni (di Gauge). I fotoni, gluoni, particelle W e Z hanno spin 1, mentre quark e leptoni hanno spin ½.

Nel 1925 W. Pauli (Nobel per la Fisica nel 1945) formulò un principio noto come principio di esclusione di Pauli, che proibisce a due fermioni di possedere lo stesso stato quantico. Questo principio pone un vincolo alla quantità di materia che po’ essere ridotta o confinata in un piccolo spazio; questo limite stabilisce anche i livelli energetici minimi che gli elettroni (un leptone, e quindi fermione), possono occupare intorno al nucleo atomico. Il limite può essere superato durante il collasso gravitazionale di una stella quando la forza gravitazionale degli strati superiori diventa maggiore della forza repulsiva fra gli elettroni e si forma una stella di neutroni. Questo limite non vale per i bosoni, per i quali più di uno può trovarsi contemporaneamente in uno stesso stato quantico; un processo che viene facilitato alle temperature molto basse; minore è la temperature, maggiore è la capacità che hanno i bosoni di addensarsi e trovarsi in uno stesso stato quantico a minore energia. Il risultato è un nuovo stato della materia verificato sperimentalmente in laboratorio chiamato condensato di Bose-Einstein.

Il bosone di Higgs ha spin 0; inoltre la teoria del Modello prevede inoltre un valore di spin anche per il gravitone (il bosone responsabile della forza gravitazionale la cui esistenza non è ancora verificata sperimentalmente a cui corrisponde uno spin 2.

Una seconda classificazione della materia (ovvero sempre relativa al 4% circa di ciò che possiamo “vedere e toccare con mano”) può essere fatta se si analizza il diagramma del Modello Standard per colonne. Notiamo che:

  • Ci sono sei quark, raggruppati in tre famiglie: (u, d), (c, s) e (t, b). Ogni famiglia ha la stessa coppia di carica elettrica ma masse diverse: procedendo da sinistra a destra la massa aumenta, fino ad arrivare al quark top che ha una massa equivalente di circa 200 protoni.

I quark furono ipotizzati da Murray Gell Mann (Nobel nel 1969) per estendere il concetto di Simmetria in Natura. Egli ipotizzò l’esistenza di tre particelle fondamentali che hanno due tipi di carica: carica elettrica e di colore (rosso, verde e blu).  Feymann dimostrò che queste particelle erano reali. I quark godono di una proprietà chiamata confinamento del colore; ovvero non si possono dividere; anche se cerco di spezzare quark fornendo loro energia, compaiono altre coppie di quark (ed antiquark) che immediatamente si uniscono al quark “singolo”. Dal punto di vista della meccanica quantistica, in pratica è come se fornendo sufficiente energia alla materia si potesse estrarre nuove particelle dal vuoto che si legano o annichiliscono con le particelle già presenti.

La loro stabilità è legata alla massa: masse più grandi (grandi quantità di energia), minore è la loro durata di vita. I quark hanno carica elettrica frazionaria e sono possibili solo combinazioni di quark tali che la somma delle cariche elettriche sia un numero intero (come protoni e neutroni).

  • Ci sono 6 leptoni raggruppati in tre famiglie: l’elettrone, il muone ed il tauone (o tau) ognuna con il suo neutrino. La massa aumenta passando dall’elettrone al tauone.

Ogni leptone è in “coppia” con il suo neutrino: muovendosi da destra a sinistra si passa da una particella meno stabile come il tauone che dura 10-15 secondi ad una più stabile, l’elettrone, pari a 1026 anni. In generale più una particella è instabile, più decade in tempi brevi in una zona di maggiore stabilità energetica. La Natura predilige zone di stabilità.

Modello Standard animato

Modello Standard animato. Fonte en.wikipedia.org modificato dall’autore.

Dato che la carica, spin ed energia si devono sempre conservare, tutte le volte che un processo nucleare porta ad un deficit di energia o carica significa che si è in presenza di una nuova particella. Così è successo per la scoperta del neutrino da parte di W. Pauli (1930) e così si osserva nei raggi cosmici in associazione con il decadimento del muone e tauone, in cui compaiono i rispettivi neutrini. I neutrini hanno una massa molto elusiva (ma non nulla) per giustificare il loro cambiamento di sapore; essi, infatti, possono cambiare sapore all’interno dei tre definiti dal modello (neutrino elettronico, muonico e tauonico); il modo con cui questo avviene è determinato da alcuni parametri collegati all’angolo di miscelazione del neutrino. Secondo la teoria di Pontecorvo, anche il termine massa va sostituito con il più corretto stato di massa, ovvero una sovrapposizione o combinazione lineare di stati ciascuno dei quali corrisponde un valore di massa, ove ad ogni stato corrisponde una propagazione di un’onda elettromagnetica.

Di cosa è costituito quindi un atomo? L’atomo è costituito da un nucleo di neutroni e protoni ed una nuvola probabilistica di elettroni che occupano orbite energetiche ben definite in modo che elettricamente sia neutro.

Neutrone

Il neutone è costituito da due quark down, un quark up e una molteplicità di quark-antiquark che si annichiliscono fra loro e contribuiscono alla massa totale del neutrone

I neutroni e protoni nel nucleo sono costituiti da una quantità innumerevole di quark la cui carica di colore viene scambiata dai gluoni. I gluoni sono inoltre responsabili di mantenere assieme il nucleo. Dal punto di vista atomico del modello quello di cui è costituito il neutrone (e il protone) sono solo tre quark, in particolare il neutrone è definito dalla terna (d, d, u), mentre il protone è definito dalla terna (u, u, d). La distanza media fra quark è di circa 1,5 fermi (1 fermi = 10-15 m).

Ordini di grandezza atomo

Ordini di grandezza dell’atomo

Contrariamente a ciò che può sembrare, alla massa del protone non concorrono solamente i tre quark; infatti se facessimo la somma delle masse di questi ultimi non otterremo la massa totale del protone. La massa del protone infatti è costituita al 99 % dall’energia risultante dai continui urti fra quark ed antiquark che costantemente si creano e si annichiliscono a vicenda.

Il Modello Standard – Campi

Alla fine del XIX secolo, Lord Kelvin sosteneva che oramai lo studio della fisica, dopo l’avvento dell’elettromagnetismo e delle equazioni di maxwell, aveva raggiunto ormai un capolinea; nel secolo successivo l’unico compito rimasto dei fisici per il secolo successivo era quelo di stabilire il valore delle costanti fisiche con una maggior precisione. Kelvin si sbagliava; la scoperta della radioattività richiedeva nuovi studi e le sue conseguenze portarono all’introduzione di una nuova branca della fisica: la meccanica quantistica. I due termini significano lo studio delle particelle subatomiche (quantistica) cercando di applicarvi i principi della meccanica classica.

Concettualmente molto semplice, ma in realtà Einstein, Heisenberg e Schrodinger (primi Nobel per la Fisica rispettivamente nel 1909, 1932 e 1933) mostrarono che la meccanica quantistica si rivela una materia complessa dovuta all’impossibilità applicare le teorie della meccanica classica quando si scende a livello sub-atomico Einstein, con lo studio dell’effetto fotoelettrico, formalizza il dualismo onda-particella: possiamo studiare una particella (in questo caso il fotone) guardando il loro comportamento in due aspetti diversi, a seconda dell’esperimento. Se facciamo passare un raggio di luce attraverso una piccola fenditura circolare (di dimensioni comparabili con la lunghezza d’onda) e proiettiamo il fascio che ne esce su uno schermo, ciò che vediamo è una figura di diffrazione: questo testimonia la natura ondulatoria della luce. In alternativa, se facciamo incidere un raggio di luce s una superficie metallica fotosensibile, quest’ultima emette fotoni, ovvero quanti di luce: questo testimonia la natura corpuscolare della luce. Questo effetto è alla base della meccanica quantistica che non ha riscontro analogo con la fisica classica, quella cioè studiata da Newton.

Heisenberg andò oltre: introdusse un principio noto come principio di indeterminazione che introduce un limite alla precisione di una misura che è impossibile da escludere. In fisica ogni grandezza fisica in grado di essere misurata da uno strumento di misura viene chiamata osservabile; in meccanica quantistica esistono alcuni osservabili che dipendono da altri, che sono legati in coppia fra loro. Tale concetto ha origine della non commutatività dell’applicazione di alcune coppie di osservabili con gli stati quantici. Ad esempio posizione e quantità di moto oppure tempo ed energia. Se vogliamo stabilire con precisione sempre maggiore la posizione di una particella, allora dovremo accontentarci di avere una maggior incertezza sulla sua quantità di moto (ovvero, più semplicemente, velocità) e viceversa. Se vogliamo sapere l’energia associata ad una particella, allora meno tempo impiegheremmo a fare la misura, maggiore sarà l’indeterminazione di tale valore.

L’indeterminazione degli stati coniugati di una particella non è l’unico effetto che si ottiene passando dal mondo macroscopico al mondo subatomico. Schrodinger riuscì a formalizzare la meccanica quantistica in un’equazione complessa che porta il suo nome in cui descrive la dinamica spazio-temporale di una particella. L’equazione esprime il comportamento dinamico di una particella nello spazio (x, y, z, t) dove t è il tempo; in termini di probabilità. Essendo valido il principio di indeterminazione di Heisenberg, Schrodinger associa alla particella non più una posizione, bensì una probabilità che essa si trovi in un punto dello spazio-tempo con la condizione di normalizzazione di probabilità uguale ad uno; inoltre si lega ad essa (tramite altri operatori), la densità di energia della particella.

Prima di addentrarci nella descrizione del modello standard, introduciamo il concetto di campo. Il campo in fisica è una qualsiasi regione dello spazio in cui è possibile associare ad un punto uno stato scalare o vettoriale. Il campo descrive una forza non di contatto sul quale agisce la particella.

Passiamo ad un esempio per semplificare il concetto: la distribuzione di temperatura in una stanza o nella penisola italiana è un esempio di campo scalare. Ad ogni punto dello spazio viene associato un numero che rappresenta la temperatura (indice di stato misurabile con un termometro): un punto, un valore. Ad ogni istante ogni punto del campo cambia valore (ad esempio durante la giornata sui monti o al mare), ma rappresenta sempre come varia la temperatura nel tempo. Basta un numero per descrive un campo scalare. Un altro esempio di campo scalare è il campo di Higgs.

Distribuzione della temperatura

DIstribuzione delle temperature in Italia il 13/12/2015 Fonte: 3bmeteo.com

Un esempio di campo vettoriale è la distribuzione dei venti nella penisola italiana: non basta un valore per descrivere il campo, è necessario specificare anche la direzione ed un verso del vento. Un esempio di campo vettoriale è il campo elettromagnetico o il campo gravitazionale terrestre.

Distribuzione dei venti

DIstribuzione dei venti in Italia il 13/12/2015 Fonte: 3bmeteo.com

Ogni punto del campo vettoriale sarà descritto da un vettore, ovvero da intensità, direzione, verso e punto di applicazione, che assumeranno valori diversi in ogni punto del campo (l’intensità dei venti non è la stessa per differenti zone geografiche); analogamente anche una particella subirà effetti differenti in zone diverse del campo a seconda dell’intensità della forza del capo in cui si trova. La stesa particella sarà in grado di modificare la distribuzione del campo ed influenzare così le altre particelle ivi presenti in un continuo scambio di forze.

Ogni forza elementare – e quindi particella mediatrice di forza – è associato un campo il quale interagisce con le altre particelle fondamentali, ma non solo. La meccanica quantistica ci dice ancora di più: possiamo identificare le particelle che costituiscono il modello anche come risultato di eccitazione energetiche (pacchetti di energia) del campo in cui sono immersi o con il quale interagiscono. Infatti, grazie all’equivalenza massa – energia, possiamo associare ad ogni particella un valore di energia (energia di attivazione) che la identifica e necessaria alla creazione della particella. A livello subatomico l’energia non viene misurata in Joule, bensì in un suo sottomultiplo, l’elettronvolt ovvero l’energia che acquista un elettrone quando si muove nel vuoto in un campo sottoposto ad una differenza di potenziale di 1 Volt.

Nei prossimi articoli descriveremo la classificazione delle particelle, le caratteristiche e come interagiscono fra loro per creare la materia che conosciamo e le forze fondamentali.

%d blogger hanno fatto clic su Mi Piace per questo: