Rappresentazione artistica del disco di accrescimento del buco nero nel sistema V404 Cygni. Crediti: Gabriel Pérez, Smm (Iac)

Una delle proprietà che caratterizza i buchi neri è la loro intensa forza di attrazione gravitazionale. Entro la distanza delimitata dal loro orizzonte degli eventi, nulla sfugge loro, nemmeno la luce. Se in fatto di gravità i buchi neri sono i primi della classe, lo stesso sembra non si possa dire sui campi magnetici che si vengono a creare intorno a essi. Uno studio pubblicato nell’ultimo numero della rivista Science mostra che questi oggetti celesti hanno un campo magnetico decisamente inferiore a quanto finora atteso. Il lavoro, guidato da ricercatori dell’Università della Florida e al quale hanno partecipato Piergiorgio Casella e Matteo Bachetti dell’Istituto nazionale di astrofisica (Inaf), presenta i risultati della mappa magnetica dei dintorni del buco nero nel sistema binario V404 Cygni, che indicano valori dell’intensità del  campo magnetico fino a quattrocento volte inferiore a quelli attesi.

V404 Cygni si trova a circa 7.800 anni luce dalla Terra in direzione della costellazione del Cigno. La sua caratteristica più particolare è che emette lampi di luce improvvisi e intensi, e questi picchi di attività corrispondono a fasi durante le quali attira a sé e inghiotte materiale dalla propria compagna. Il buco nero in V404 Cygni ha una massa di circa dieci volte quella del Sole ed è legato gravitazionalmente ad una stella “normale”, simile al nostro Sole, da cui sta risucchiando parte del materiale di cui è costituita. Nel suo viaggio verso il buco nero, questa materia cade con un moto spiraleggiante formando attorno a esso quello che prende il nome di disco di accrescimento, delle dimensioni dell’ordine di diverse migliaia di chilometri. In questo precipitare, la materia si surriscalda e nella corona calda che si forma nella vicinanze del buco nero essa può raggiungere temperature fino a centinaia di milioni di gradi, emettendo radiazione di alta energia, sotto forma di raggi X e gamma.  Il materiale viene quindi in parte espulso attraverso due getti che si allontanano in direzioni opposte con velocità prossime a quella della luce.

«L’utilizzo di strumenti di ultima generazione, e di tecniche di analisi molto sofisticate, ci ha permesso di osservare fenomeni fisici che avvengono vicinissimi a un buco nero con un livello di dettaglio mai raggiunto prima», spiega Casella, in forza all’Osservatorio astronomico di Roma dell’Inaf. «Il buco nero ha “sparato” degli elettroni energetici, che immersi in un campo magnetico hanno emesso radiazione a tutte le lunghezza d’onda, perdendo così energia e raffreddandosi. Noi abbiamo seguito questi elettroni, osservando il loro rapido raffreddamento e misurando quindi il campo magnetico vicino al buco nero. È un risultato senza precedenti, che apre la strada ad una comprensione maggiore di ciò che avviene attorno a questi oggetti misteriosi».

Gli autori dello studio hanno ricavato le misurazioni del campo magnetico di V404 Cygni dai dati raccolti nel 2015 durante una violenta esplosione di energia legata all’emissione di getti dal buco nero. L’evento è stato osservato simultaneamente a molte lunghezze d’onda, utilizzando il satellite NuStar della Nasa nella banda dei raggi X, il William Herschel Telescope (Wht) in banda della luce visibile, l’Arcminute Microkelvin Imager (Ami) nelle onde radio e il Gran Telescopio Canarias (Gtc) – il più grande telescopio ottico-infrarosso al mondo, situato al Roque de los Muchachos nelle Isole Canarie – nell’infrarosso.

«Questa sorgente si è rivelata una miniera d’oro», commenta Bachetti, ricercatore dell’Osservatorio astronomico di Cagliari dell’Inaf, che insieme a Casella, Federico Vincentelli e altri colleghi è stato recentemente coautore di un altro articolo su V404 del quale abbiamo parlato su Media Inaf. «La sua altissima luminosità ha permesso in pochissimo tempo di far avanzare in maniera sostanziale la nostra conoscenza di come si comporta la materia che gira intorno ai buchi neri, dandoci nuovi elementi per capire come mai parte di questa materia venga lanciata via ad altissima velocità invece di caderci dentro».

Per saperne di più:

  • Leggi su Science l’articolo “A precise measurement of the magnetic field in the corona of the black hole binary V404 Cygni“, di Yigit Dallilar, Stephen S. Eikenberry, Alan Garner, Richard D. Stelter, Amy Gottlieb, Poshak Gandhi, Piergiorgio Casella, Vik S. Dhillon, Tom R. Marsh, Stuart P. Littlefair, Liam Hardy, Rob Fender, Kunal Mooley, Dominic J. Walton, Felix Fuerst, Matteo Bachetti, A. J. Castro-Tirado, Miguel Charcos, Michelle L. Edwards, Nestor M. Lasso-Cabrera, Antonio Marin-Franch, S. Nicholas Raines, Kendall Ackley, John G. Bennett, A. Javier Cenarro, Brian Chinn, H. Veronica Donoso, Raymond Frommeyer, Kevin Hanna, Michael D. Herlevich, Jeff Julian, Paola Miller, Scott Mullin, Charles H. Murphey, Chris Packham, Frank Varosi, Claudia Vega, Craig Warner, A. N. Ramaprakash, Mahesh Burse, Sujit Punnadi, Pravin Chordia, Andreas Gerarts, Héctor de Paz Martín, María Martín Calero, Riccardo Scarpa, Sergio Fernandez Acosta, William Miguel Hernández Sánchez, Benjamin Siegel, Francisco Francisco Pérez, Himar D. Viera Martín, José A. Rodríguez Losada, Agustín Nuñez, Álvaro Tejero, Carlos E. Martín González, César Cabrera Rodríguez, Jordi Molgó, J. Esteban Rodriguez, J. Israel Fernández Cáceres, Luis A. Rodríguez García, Manuel Huertas Lopez, Raul Dominguez, Tim Gaggstatter, Antonio Cabrera Lavers, Stefan Geier, Peter Pessev e Ata Sarajedini

Powered by WPeMatico

André Maeder. Fonte: fototeca online dell’università di Ginevra

Come sarebbe scoprire che quel 95 per cento di universo a noi sconosciuto in realtà non c’è? O meglio, che non c’è alcun bisogno di presumere l’esistenza di un’energia oscura e di una materia altrettanto oscura che, stando ai modelli cosmologici attuali, dovrebbero invece costituire rispettivamente – andando a spanne – il 70 per cento e il 25 per cento del bilancio energetico totale del cosmo? E che quelle due misteriose entità che gli scienziati stanno disperatamente cercando d’intrappolare da decenni sono null’altro che il frutto d’un equivoco?

L’idea che sia possibile spiegare ciò che osserviamo senza ricorre alle due componenti oscure non è inedita: abbiamo avuto occasione di parlarne anche su queste pagine, sia d’alternative all’energia oscura sia d’alternative alla materia oscura. E proprio a questo filone si aggiungono ora due articoli pubblicati su The Astrophysical Journal Letters, uno lo scorso gennaio e l’altro a inizio novembre, firmati entrambi da un unico autore: l’astronomo André Maeder, direttore del l’Osservatorio di Ginevra dal 1992 al 1998 e oggi professore emerito presso l’Università di Ginevra.

Il lavoro di Maeder aggredisce la concezione attualmente accettata sin dalle fondamenta, ovvero dal modello – descritto con gli strumenti della relatività generale di Einstein, della gravitazione universale di Newton e della meccanica quantistica – che fa derivare tutto ciò che osserviamo dal Big Bang e dalla successiva storia d’espansione. «In questo modello c’è un’ipotesi di partenza che, secondo me, non è stata presa in considerazione», spiega lo scienziato. «Mi riferisco all’invarianza di scala dello spazio vuoto. In altre parole, lo spazio vuoto e le sue proprietà non cambiano a seguito di una dilatazione o contrazione». Ebbene, da questa constatazione Maeder ha derivato un nuovo modello che permetterebbe, secondo lo scienziato, di spiegare vari fenomeni attualmente ritenuti governati da entità oscure: dall’espansione accelerata dell’universo, attribuita a una forma di dark energy, alla velocità delle galassie negli ammassi, uno dei molti indizi della presenza di una dark matter.

Poiché l’argomento è tanto affascinante quanto complesso, per approfondirlo ci siamo rivolti allo scienziato che già ha curato, per la rubrica di Media Inaf dedicata a “Voci e domande dell’astrofisica”, proprio la voce sulla materia oscura, Carlo Burigana, cosmologo all’Istituto di radioastronomia dell’Inaf.

Il punto di partenza dell’ipotesi di Maeder è l’invarianza di scala dello spazio vuoto. Burigana, di che cosa si tratta?

«L’argomento è piuttosto formale e riguarda i fondamenti delle teorie della gravità nel formalismo tensoriale e nelle sue estensioni, sviluppate fin dagli anni Venti da vari autori, Herman Weyl in particolare, e riprese poi negli anni Settanta. In realtà, gli aspetti più formali del modello di Maeder vengono sviluppati in un suo lavoro precedente, mentre nel nuovo articolo l’autore si concentra sul formalismo dedicato agli aspetti più legati alle osservazioni astronomiche. Alla base vi sono le regole di trasformazione tra sistemi di riferimento e delle quantità rilevanti della fisica (ad esempio, nella relatività einsteiniana la velocità della luce è un invariante). Qui in gioco vi è la trasformazione dell’elemento di linea nello spazio-tempo e di come trasformino scalari, vettori e tensori, quando si assume, oltre alla generale covarianza, l’ipotesi di invarianza di scala dello spazio vuoto. Nel modello, un fattore (moltiplicativo) di scala, l, esprime come si trasforma l’elemento di linea nel passaggio tra due sistemi di riferimento differenti, il suo quadrato come trasforma il tensore metrico. Il principio cosmologico richiede che il fattore di scala dipenda solo dal tempo. Le quantità scalari, vettoriali e tensoriali trasformano “moltiplicativamente” con una potenza del fattore di scala. Se l’esponente è diverso da zero allora si parla di trasformazioni con covarianza di scala, se esso è zero si parla trasformazioni con invarianza di scala (l0 = 1, e quindi di quantità invarianti di scala), che in pratica si può vedere come un sottoinsieme notevole delle possibili trasformazioni».

Perché, almeno secondo l’autore, questo potrebbe rendere superflue le “componenti oscure”?

«Nel modello su delineato, l’autore deriva le equazioni cosmologiche fondamentali, ottenendo relazioni – incluse le leggi di conservazione e le proprietà geometriche – modificate rispetto a quelle standard e mostrando come, a basse densità, la soluzione per modelli con invarianza di scala contempli un termine per certi versi analogo (ma la cui natura è da collegarsi solo all’evoluzione del fattore di scala) a quello di “accelerazione” introdotto dalla costante cosmologica».

E così si potrebbe forse fare a meno dell’energia oscura…  Ma la materia oscura?

«Nello studio in oggetto, Maeder mostra come tale teoria possa svilupparsi nell’approssimazione di campo debole, adatta alle scale galattiche e di ammassi di galassie, e di come nelle equazioni dinamiche (per certi versi analoghe a quelle newtoniane) appaia un termine di accelerazione verso l’esterno che consente di interpretare i dati osservativi di natura dinamica in alternativa alla spiegazione basata sulla materia oscura».

Carlo Burigana, cosmologo Inaf

In che senso?

«La materia oscura, in inglese dark matter, venne introdotta proprio per giustificare le osservazioni sulla dinamica di galassie e poi ammassi di galassie che, nell’ambito delle teorie dinamiche e di gravità standard, non potevano essere ricondotte alla quantità e distribuzione di materia in grado di emettere radiazione elettromagnetica. Da cui l’idea della presenza di materia non visibile (dark) responsabile degli effetti dinamici (in primis di natura gravitazionale), diversamente inspiegati. Così pure la scoperta dell’accelerazione recente dell’universo, interpretabile in termini di una costante cosmologica (Λ, o lambda) non banale o di contributi da una energia oscura, viene spiegata dall’autore in termini assai diversi».

Insomma, un modello che sembra poter fare a meno di entrambe le componenti oscure dell’universo?

«Già. Tuttavia è importante notare che l’idea di modificare la nostra visione della fisica fondamentale, tra cui le teorie dinamiche e di gravità, così come la predizione di lambda, è stata ed è, a sua volta, perseguita in molteplici studi e sviluppi. Se la scoperta delle particelle ipotizzate per spiegare il 95 per cento della densità di energia dell’universo continuerà a mancare, gli scenari non basati sulla presenza di tali particelle, qualora superassero le molteplici verifiche osservative, in base al principio del rasoio di Occam, non potranno che rafforzarsi».

Eppure la maggior parte degli astrofisici è scettica… Perché?

«Beh, ovviamente ciascuno avrà le proprie opinioni (anche molto tecniche nel caso). Personalmente, come penso testimonino lo stile e la dedica di un volume che ho curato per Springer assieme a Mauro D’Onofrio [Questions of Modern Cosmology, ndr], ritengo che ogni idea formulata in modo scientifico meriti attenzione e considerazione. Dal punto di vista generale, la scienza spesso evolve secondo due ispirazioni fondamentali: provare a identificare, scoprire in modo robusto entità (particelle, nel caso) non ancora evidenti dal punto di vista sperimentale, ma invocate teoricamente, e plausibili fenomenologicamente, per giustificare realtà osservative; oppure, viceversa, elaborare nuove visioni e teorie che non abbiano bisogno affatto di entità non ancora chiaramente provate. Due successi rilevanti, ormai “classici”, in fisica moderna riconducibili a queste due tipologie sono rispettivamente la scoperta del neutrino e la confutazione dell’etere».

E questo come si declina nello sviluppo dei modelli in cosmologia?

«Una visione che, pur richiedendo e stimolando verifiche sperimentali dei propri “ingredienti fondamentali”, riesce a spiegare molti aspetti della realtà osservata, di solito motiva molti studiosi a svilupparla e approfondirla per giustificare, e predire, in quel quadro altre manifestazioni osservabili, spesso con successo ma anche aprendo nuovi interrogativi, così come avviene per il modello “standard” attuale di LCDM (e le sue varianti). Viceversa, una visione nuova, non ancora affermata, richiede notevoli approfondimenti per giustificare o almeno fornire elementi interpretativi a fenomenologie non ancora considerate e, se vi riesce, potrebbe rappresentare un nuovo paradigma scientifico, alternativo a quello precedente. Il più recente, di ampio respiro, in cosmologia è stato proprio il passaggio dai modelli con decelerazione dell’universo recente (CDM) a quelli con accelerazione dell’universo recente (LCDM). E così nulla ci impedisce di pensare che altri cambi di paradigma possano avvenire nel prossimo futuro!».

In conclusione: questa proposta di Maeder va presa seriamente in considerazione? Potrà avere ricadute concrete?

«Nel caso in esame, mi pare che l’evoluzione delle perturbazioni cosmologiche, l’interpretazione della struttura su larga scala e delle anisotropie del fondo cosmico e l’esplorazione dell’universo lontano siano ambiti rilevanti di sviluppo e confronto scientifico. E l’autore stesso onestamente scrive che la lista di problemi che meritano studi ulteriori è lunga. Vi è poi, in generale, la questione spinosa degli interessi che entrano in gioco nella dialettica della conoscenza. Alcuni – rari, confido – forse personalistici, altri riguardanti le scelte e gli investimenti in mezzi e competenze. Probabilmente e fortunatamente, lo sviluppo di progetti e infrastrutture e il continuo mix di approccio deduttivo e induttivo tipico delle scienze cosmologiche e astrofisiche consentono di esplorare molteplici scenari, fornendo dati ed elementi conoscitivi di ampio respiro che dovrebbero auspicabilmente consentire di studiare insiemi di modelli anche molto diversi, costituendo così ancora un ottimo antidoto contro pregiudizi o visioni parziali».


Per saperne di più:

Powered by WPeMatico

Rappresentazione artistica di due galassie agli albori dell’universo. Crediti: Nrao/Aui/Nsf; D. Berry

Le potenti antenne di Alma, l’Atacama Large Millimeter/submillimeter Array, si sono spinte fino agli albori dell’universo, quando le prime galassie erano in fase embrionale, scoprendo che alcune di esse si sono formate a “soli” 780 milioni di anni dal Big Bang. Questo suggerisce agli scienziati che gli elementi alla base della formazione galattica sono stati in grado di assemblarsi abbastanza rapidamente in galassie più grandi. E questo già durante l’epoca della reionizzazione, quando la maggior parte dello spazio intergalattico uscì dall’oscurità grazie alla formazione di stelle e galassie che, con la loro energia, ionizzarono l’idrogeno portando la luce nell’universo che conosciamo oggi.

Le antenne cilene hanno rilevato che questa manciata di galassie primordiali (nate quando l’universo aveva il 5 per cento dell’età attuale) erano immerse in una struttura ancora più immensa: un alone di materia oscura diverse migliaia di miliardi più massiccio del Sole. Nello specifico, il gruppo di ricercatori guidati da Dan Marrone, dell’Università dell’Arizona, ha osservato due galassie talmente vicine tra loro (meno della distanza tra la Terra e il centro della Via Lattea) che finiranno presto per fondersi, e per dare origine alla più grande galassia mai osservata nella storia di quel periodo cosmico. Questa scoperta fornisce nuovi dettagli sul ruolo che la materia oscura gioca nella formazione delle strutture più massicce dell’universo.

Questa immagine composita mostra i dati Alma (rosso) delle due galassie SPT0311-58. Lo sfondo viene dai dati raccolti dal telescopio spaziale Hubble (blu e verde). I dati Alma mostrano il bagliore polveroso delle due galassie. L’immagine della galassia a destra è distorta dalla lente gravitazionale. Crediti: ALMA (ESO/NAOJ/NRAO), Marrone, et al.; B. Saxton (NRAO/AUI/NSF); NASA/ESA Hubble

Secondo quanto riportato sulla rivista Nature, Alma è stato fondamentale per ricostruire la storia di queste prime galassie, note come Spt0311-58. La prima identificazione della coppia galattica è arrivata dal South Pole Telescope, e con Alma è stato poi possibile determinarne la distanza e altre caratteristiche. Alma ha sfruttato la tecnica della lente gravitazionaleper osservare queste lontanissime galassie: la lente d’ingrandimento cosmica fa apparire la galassia sullo sfondo più grande e più luminosa. È necessario che la galassia più distante (il target della ricerca) si trovi quasi perfettamente dietro alla “galassia lente”. Il lensing gravitazionale permette così di vedere oggetti lontanissimi, che né dalla Terra né con i nostri satelliti sarebbe altrimenti possibile osservare.

Dato che le immagini che si ottengono sono distorte a causa dell’effetto lente, gli esperti hanno utilizzato dei potenti supercomputer per “rimodellare” l’immagine. Dai dati ottenuti, gli scienziati ritengono che la più grande delle due galassie stia formando stelle a una velocità di 2.900 masse solari all’anno. Contiene inoltre circa 270 miliardi di volte la massa del nostro Sole in gas e quasi 3 miliardi di volte la massa del nostro Sole in polvere. «Si tratta di un’enorme quantità di polvere, considerando la giovane età del sistema», ha osservato Justin Spilker, ricercatore postdoc all’Università del Texas. L’altra galassie ospita una quantità di stelle pari a 35 miliardi di volte la massa del nostro Sole, e cresce al ritmo spaventoso di 540 masse solari all’anno.

Le antenne cilene hanno contribuito anche a determinare l’esistenza dell’immenso alone di materia oscura che avvolge le due galassie, forse uno dei più massicci che potesse esistere all’epoca.

Per saperne di più:

Powered by WPeMatico

Rappresentazione artistica del quasar più distante mai osservato, un buco nero supermassiccio circondato dal suo disco di accrescimento. Gli astronomi hanno utilizzato questa scoperta per ottenere informazioni importanti sui primi stadi della vita dell’Universo. Crediti: Carnegie Institution for Science

Due gruppi di astronomi guidati dall’Università Carnegie in California e dal Max Planck Institute for Astronomy in Germania hanno scoperto il buco nero più distante finora osservato: per arrivare sulla Terra, la luce del quasar Ulas J134208.10+092838.61 – alimentato dal buco nero supermassiccio – ha impiegato 13 miliardi di anni. Ciò significa che potrebbe essersi formato 690 milioni di anni dopo il Big Bang, quando l’universo stava uscendo dalla cosiddetta “Era Oscura”. I ricercatori, tra cui anche Roberto Decarli dell’Istituto nazionale di astrofisica di Bologna, hanno effettuato la scoperta utilizzando diversi strumenti e telescopi: i telescopi Magellano in Cile, le antenne del Noema Array (dell’Iram) in Francia e il radiotelescopio Very Large Array in New Mexico. Durante l’intensa campagna osservativa, i due gruppi – uno guidato da Eduardo Bañados del Carnegie Institution for Science, l’altro da Fabian Walter e Bram Venemans del Max Planck – hanno catturato la luce proveniente da questo quasar estremamente potente imparando qualcosa di nuovo sull’universo primordiale.

Immagine della galassia che ospita il quasar recentemente scoperto, scattata nella caratteristica luce del carbonio ionizzato (CII). Osservazioni come questa hanno dimostrato che la galassia ospite contiene quantità sorprendenti di elementi pesanti e polvere. Crediti: Mpia / Venemans et al.

I quasar sono delle sorgenti energetiche che risiedono nel cuore delle galassie e sono generati dai buchi neri più massicci – in questo caso 800 milioni di volte la massa del Sole. La loro luce viene prodotta quando del materiale galattico, come gas o anche intere stelle, collassa all’interno del buco nero supermassiccio al centro di una galassia. Tale materia si raccoglie in un disco di accrescimento intorno al buco nero, raggiungendo temperature fino a qualche centinaia di migliaia di gradi centigradi prima di cadere infine nel buco nero stesso.

Il quasar appena scoperto è talmente luminoso che brilla come 40mila miliardi di stelle simili al Sole, e aggiunge dati cruciali per lo studio delle prime fasi della storia dell’universo: la sua luce mostra che una frazione significativa di idrogeno era ancora neutrale 690 milioni di anni dopo il Big Bang, e questo porta gli esperti ad avvalorare modelli che prevedono che la reionizzazione (il passaggio dal periodo durante il quale l’universo era buio, composto solamente da nubi di elementi chimici elementari in balia delle forze gravitazionali, all’universo strutturato in complesse reti di galassie e nebulose di gas ionizzato intergalattico che possiamo osservare oggi) sia avvenuta relativamente tardi.

Roberto Decarli, Inaf di Bologna

«La scoperta di un quasar così distante nel tempo», osserva Decarli, «offre una prospettiva inedita sull’universo giovane. Questo oggetto da solo ci regala importanti informazioni sulla formazione ed evoluzione dei primi buchi neri supermassicci, delle prime galassie di grande massa, sull’arricchimento chimico del gas nelle galassie e sull’evoluzione del mezzo intergalattico verso la fine della reionizzazione».

La distanza del quasar è determinata da quello che viene chiamato redshift, (letteralmente “spostamento verso il rosso”), vale a dire l’allungamento della lunghezza d’onda della luce associata all’espansione dell’universo: più alto è il redshift, maggiore è la distanza, e più indietro gli astronomi guardano nel tempo quando osservano l’oggetto. Questo quasar ha un redshift di 7,54 (il record precedente, per i quasar, era 7,09). Di quasar così distanti ne sono previsti solo in un numero molto ridotto (da 20 a 100 esemplari).

Raprresentazione schematica del viaggio nel tempo che è possibile effettuare grazie alla scoperta del quasar più distante mai visto. L’osservazione grazie a uno dei telescopi Magellano (in basso a sinistra) permette agli astronomi di ricostruire informazioni in merito all’epoca della reionizzazione (le bolle a metà dell’immagine) in seguito al Big Bang (in alto a destra). Crediti: Carnegie Institution for Science

Quasar giovani come Ulas J134208.10+092838.61 possono fornire preziose informazioni anche sull’evoluzione della galassia ospite. Registrando una massa di quasi un miliardo di masse solari, il buco nero che ha generato il quasar è relativamente massiccio. Spiegare come un buco nero di questo tipo si sia formato in così poco tempo è un rompicapo per i ricercatori.

«Raccogliere tutta questa materia in meno di 690 milioni di anni è una sfida, se ci basiamo sulle attuali teorie di accrescimento dei buchi neri supermassicci», spiega Bañados. «I quasar sono tra gli oggetti celesti più luminosi e lontani conosciuti e sono quindi cruciali per comprendere l’universo primordiale», conclude Venemans.

Per saperne di più:

Powered by WPeMatico

La foto mostra il dato spettrale ottenuto durante la “prima luce” dello strumento Espresso installato sul Vlt (Very Large Telescope) in Cile. La luce di una stella è stata dispersa nei suoi colori componenti.  Crediti: Eso/Espresso team

Un nuovo, formidabile strumento per scoprire pianeti extrasolari è ora a disposizione degli astronomi. Si chiama Espresso, acronimo di Echelle SPectrograph for Rocky Exoplanet and Stable Spectroscopic Observations (ovvero Spettrografo echelle per osservazioni di esopianeti rocciosi e spettroscopia ad alta precisione) ed è installato sul telescopio Vlt dell’Eso all’Osservatorio del Paranal nel Cile settentrionale. Espresso, che ha visto la sua prima luce nei giorni scorsi, è uno spettrografo di terza generazione e sarà il successore dello strumento Harps dell’Eso installato all’Osservatorio di La Silla. Il salto in avanti rispetto al predecessore sarà enorme: Harps raggiunge una precisione di misura delle velocità di circa un metro per secondo, mentre Espresso mira a ottenere una precisione di appena pochi centimetri al secondo, grazie ai progressi tecnologici e all’essere al fuoco di un telescopio molto più grande. Prima la prima volta in assoluto, Espresso sarà in grado di combinare la luce di tutti e quattro i telescopi principali del Vlt raggiungendo il potere di raccolta della luce equivalente a quella un singolo telescopio da 16 metri di diametro. Importante la partecipazione dell’Istituto nazionale di astrofisica all’ideazione e alla realizzazione dell’ambizioso progetto.

«E stato emozionante essere presente di persona nella notte del 27 novembre alla acquisizione del primo spettro scientifico con lo spettrografo Espresso a Paranal, emozione resa ancor più forte dall’essere stato parte del team dello strumento, prima di ricoprire il mio incarico attuale» commenta Filippo Maria Zerbi, direttore scientifico dell’Istituto nazionale di astrofisica. «Il personale Inaf ha ancora una volta dimostrato di essere in grado di raccogliere sfide scientifiche e tecnologiche e contribuire in maniera determinante alla realizzazione di strumenti scientifici di assoluta avanguardia. Misure di velocità radiali con accuratezze mai viste prima, stabilità nelle misure in tempi lunghissimi, materializzazione dei fuochi Coudè ed attivazione, per la prima volta nella storia di Vlt, del fuoco combinato con le 4 unità in uso contemporaneo. Espresso è uno strumento fuori dal comune e fuori dal comune è stata la sfida decennale per concepirlo, realizzarlo ed infine portarlo pienamente funzionale al telescopio. Congratulazioni e un grande grazie a tutto il team che ha reso questo possibile».

L’enorme reticolo di diffrazione al cuore dello spettrografo ad alta precisione Espresso durante i test nella camera bianca del quartiere generale di Eso a Garching a Monaco, in Germania. Crediti: Eso/M. Zamani

Il responsabile scientifico di Espresso, Francesco Pepe dell’Università di Ginevra in Svizzera, ne parla e spiega l’importanza: «Questo successo è il risultato del lavoro di molte persone nel corso di una decina d’anni. Espresso non è semplicemente l’evoluzione dei nostri strumenti precedenti come Harps, ma, con la sua elevata risoluzione e una maggior precisione, è veramente rivoluzionario. Diversamente dagli strumenti precedenti, può sfruttare l’intera capacità di raccolta del Vlt – può essere usato con tutti e quattro i telescopi principali (Ut) del Vlt contemporaneamente per simulare un telescopio da 16 metri di diametro. Espresso non avrà rivali per almeno un decennio – e non vedo l’ora di trovare il nostro primo pianeta roccioso!»

Espresso rivela minuscoli cambiamenti nello spettro della stella dovuti al movimento del pianeta che le orbita intorno. Questo metodo, detto delle velocità radiali, funziona perché l’attrazione gravitazionale del pianeta influenza la stella madre, facendola oscillare leggermente. Meno massiccio è il pianeta e più piccola è l’oscillazione: di conseguenza, per trovare pianeti rocciosi, che abbiano anche la possibilità di ospitare la vita, è necessario uno strumento di altissima precisione. Con questo metodo, Espresso sarà in grado di rivelare alcuni dei pianeti più leggeri mai trovati.

L’immagine è la foto di gruppo della prima equipe al lavoro sulla piattaforma di Paranal, con il VLT sullo sfondo. Crediti: Giorgio Calderone, INAF Trieste

«Sono frastornato, nonostante sia un astronomo di lungo corso» commenta Stefano Cristiani dell’Istituto nazionale di astrofisica a Trieste, uno dei responsabili del progetto. «La prima luce di Espresso è tante cose allo stesso tempo: emozione, perché è il momento in cui visioni sognate per anni diventano concrete e sugli schermi finalmente appaiono gli spettri degli oggetti così come li avevamo immaginati; fierezza, perché il contributo dell’astrofisica italiana – a partire dal nome dello strumento – ottiene un riconoscimento di grande professionalità; gratitudine, per tutti coloro che hanno lavorato con competenza e dedizione, giorno dopo giorno, in Italia e all’estero; aspettativa, perché ci attende un grande lavoro di analisi dei dati che hanno iniziato ad affluire e nuove scoperte – dai pianeti terrestri a una nuova fisica – sono a portata di mano, e perché questa è anche una tappa fondamentale verso la prossima ambiziosa impresa tecnologica: lo spettrografo Hires per il telescopio gigante Elt».

Una vista panoramica delle quattro cupole nelle quali sono alloggiati i telescopi che costituiscono il Very Large telescope (VLT). Crediti: INAF – Filippo Maria Zerbi

Le osservazioni di prova comprendevano alcune stelle e sistemi planetari noti: il confronto con dati di Harps mostra che Espresso può ottenere dati di qualità simile con un tempo di esposizione decisamente inferiore. Il responsabile scientifico dello strumento, Gaspare Lo Curto (Eso), è entusiasta: «Portare Espresso a questi traguardi è stato un successo, grazie ai contributi di un consorzio internazionale e di vari e diversi gruppi all’interno dell’Eso: ingegneri, astronomi e amministrazione. Non dovevano semplicemente installare lo spettrografo, ma anche il complesso apparato ottico che combina la luce dei quattro Ut del Vlt».

Anche se lo scopo principale di Espresso è di spingere la ricerca dei pianeti a un livello superiore – trovare e caratterizzare pianeti meno massicci e le loro atmosfere – ha anche molte altre possibilità di impiego. Sarà lo strumento più potente al mondo per verificare se le costanti della fisica sono cambiate da quando l’Universo era giovane. Questi minuscoli cambiamenti sono previsti da alcune teorie di fisica fondamentale, ma non sono mai stati osservati in modo convincente.

Fonte: Comunicato stampa Eso

Guarda il servizio video di MediaInaf Tv:

Powered by WPeMatico

Le strutture fondamentali di un pione (a sinistra) e di un’ipotetica Simp (particella massiva fortemente interagente). I pioni sono formati da un quark up e un antiquark down, con un gluone (g) che li tiene insieme. La Simp qui proposta sarebbe invece formata da un quark e un antiquark tenuti insieme da un tipo di gluone (G) sconosciuto. Crediti: UC Berkeley

Una nuova famiglia di personaggi ha fatto di recente la sua comparsa nello zoo delle particelle, più o meno ipotetiche, congetturate dai fisici nel disperato tentativo di mettere fine al dilemma della materia oscura. Tecnicamente, sarebbero mesoni, ovvero unioni di un quark e un antiquark. Mediaticamente, hanno un nome che sembra partorito dalla fantasia di Matt Groening: Simps. Acronimo di strongly interacting massive particles. Strongly?! Ma come, se interagiscono fortemente, perché mai non si lasciano prendere? Semplice: interagiscono sì fortemente, ma soprattutto in famiglia. Parola di uno degli scienziati che le hanno concepite, Hitoshi Murayama, fisico teorico a UC Berkeley nonché direttore del Kavli Institute for the Physics and Mathematics of the Universe giapponese.

Nota bene: Wikipedia, almeno per ora, dice una cosa un po’ diversa, ovvero che le Simps interagirebbero con forza anche con la materia ordinaria. E c’è chi sottolinea come lo strongly sia in realtà semplicemente da riferirsi all’interazione forte. Murayama però, o meglio il comunicato stampa distribuito dalla sua università in occasione dell’intervento dello scienziato al 29esimo Texas Symposium on Relativistic Astrophysics di Cape Town (Sudafrica) in corso questa settimana, su questo pare essere di parere leggermente diverso: le Simps interagiscono sì con forza fra loro, ma non con le altre particelle. Del resto, lo si poteva già leggere su Science tre anni fa: le Simps devono interagire con la materia ordinaria, riassumeva Adrian Cho, ma assai più debolmente delle Wimps – il che è tutto dire, visto che fino a oggi di interazioni con quest’ultime, gravità a parte, non c’è la benché minima traccia.

Ma torniamo all’ipotetica natura mesonica delle Simps. Nulla d’inedito: anche i pioni sono formati da un quark e un antiquark. La differenza principale, ben illustrata nello schema qui sopra, è che il gluone che terrebbe insieme la coppia quark/antiquark d’una Simp è di tipo… sconosciuto. Quale inutile spiegazione della materia oscura sarebbe dunque mai quella offerta da queste Simps, se ancor prima d’essere state individuate già introducono un’ulteriore entità sconosciuta? Scetticismo comprensibile. D’altronde, la caccia alla materia oscura continua a inanellare un insuccesso dietro l’altro, e i fisici sembrano non sapere ormai più dove sbattere la testa.

Proviamo a passare in rassegna alcune delle possibili spiegazioni messe in campo negli ultimi decenni, poi naufragate sugli scogli delle osservazioni astrofisiche o arenatesi nei test sperimentali. Prendiamo i Machos, per esempio: massive astrophysical compact halo objects. Una popolazione d’oggetti di materia ordinaria troppo opachi per essere visti. Nane brune, per esempio, o stelle che a fine ciclo si sono “spente”, o addirittura buchi neri, magari di quelli primordiali. Niente, non pervenuti. O meglio, largamente insufficienti a spiegare gli effetti gravitazionali osservati e attribuiti alla materia oscura.

Yonit Hochberg e Hitoshi Murayama. Crediti: Kavli Ipmu

Non che sia andata meglio alle Wimps. È da trent’anni che le inseguiamo, dallo spazio e nel sottosuolo, con ingegnosissimi esperimenti come quelli in funzione nei Laboratori nazionali del Gran Sasso. Esperimenti sempre più sofisticati, che periodicamente annunciano come un grande successo – e dal punto di vista tecnologico e sperimentale indubbiamente lo è – quello d’aver posto limiti sempre più stringenti, d’aver ulteriormente delimitato la porzione di Natura entro la quale devono trovarsi, queste inafferrabili weakly interacting massive particles. Senza però mai incastrarne una. Tanto che in molti cominciano a chiedersi: fino a che punto vogliamo spingerci? Quante tonnellate di xenon vogliamo ancora accumulare, prima di rassegnarci ad alzare bandiera bianca?

Nel frattempo c’è appunto chi, come Murayama e la collega Yonit Hochberg, ricercatrice in Israele alla Hebrew University, prova a esplorare altre strade: fra le quali, appunto, quella delle Simps. Più leggere delle Wimps, le Simps sarebbero anche più numerose, avendo dimensioni paragonabili a quelle di un nucleo atomico. Ed essendo più numerose, nonostante la loro debole interazione con la materia normale – quando la incontrano si sparpaglierebbero, invece di fondersi con essa o di decadere – lascerebbero comunque un’impronta. Impronta che Murayama pensa di vedere in quattro galassie in procinto di fondersi all’interno dell’ammasso Abell 3827, dove, in modo sorprendente, la materia oscura sembra ristagnare, rimanere indietro, rispetto alla materia visibile. Un fenomeno che potrebbe essere spiegato, propone Murayama, dalle interazioni fra la materia oscura delle galassie: interazioni che rallenterebbero la fusione della materia oscura ma non quella della materia normale, perlopiù costituita da stelle.

Le teorie convenzionali delle Wimps prevedono che le particelle di materia oscura interagiscano raramente. Murayama e Hochberg prevedono invece che le Simps della materia oscura, formate da un quark e un antiquark, entrerebbero in collisione e interagirebbero, producendo effetti notevoli quando la materia oscura nelle galassie entra in collisione. Crediti: Kavli Ipmu

«Per capire come mai la materia oscura arranchi rispetto alla materia luminosa occorre considerare che le particelle di materia oscura hanno dimensioni finite: dunque si scontrano l’una contro l’altra, e in tal modo, quando si spostano verso il resto del sistema, vengono respinte indietro», dice Murayama. «Questo spiegherebbe ciò che osserviamo. Ed è un fenomeno previsto dalla mia teoria della materia oscura come stato legato di un nuovo tipo di quark».

Murayama sottolinea poi come le Simps permettano di superare anche un altro problema piuttosto serio delle Wimps: la difficoltà a rendere conto della distribuzione della materia oscura nelle galassie più piccole. «È un enigma che si trascina da tempo: se osserviamo le galassie nane, molto piccole e con poche stelle, appaiono davvero dominate dalla materia oscura. E se elaboriamo attraverso simulazioni numeriche come la materia oscura si raggruppi al loro interno, i risultati conducono invariabilmente alla presenza di un’enorme concentrazione verso il centro. Una cuspide», spiega Murayama. «Ma le osservazioni sembrano suggerire che la concentrazione sia in realtà più piatta: un nucleo, anziché una cuspide. Questa contrapposizione irrisolta fra nucleo e cuspide è considerata uno fra i maggiori aspetti critici di una materia oscura che non interagisce se non per gravità. Se però la materia oscura avesse una dimensione finita, come nel caso delle Simps, ecco che le particelle potrebbero urtarsi e disperdersi, e ciò appiattirebbe il profilo della massa verso il centro. Un altro tassello a favore di questo tipo di teoria».

Powered by WPeMatico

Una mappa all-sky a falsi colori che combina la densità di colonna e la velocità radiale dell’idrogeno neutro ad alta velocità rilevato dall’indagine HI4PI. La luminosità corrisponde alla densità di colonna, la tonalità alla velocità radiale. Crediti: Icrar

HI4PI è una sigla che indica la ricerca di idrogeno neutro (HI) nell’universo in tutte le direzioni del cielo (da cui 4PI, ovvero quattro volte pi greco), ed è il nome di una survey astrofisica ottenuta con il radiotelescopio da 100 metri di Effelsfberg del Max-Planck Institute, in Germania, per l’emisfero boreale, e con quello da 64 metri di Parkes del Csiro, in Australia, per l’emisfero australe. Il nuovo studio è firmato dall’astronomo australiano Tobias Westmeier, del nodo Icrar (International Centre for Radio Astronomy Research) della University of Western Australia. Il risultato, pubblicato sull’ultimo numero di Monthly Notices of the Royal Astronomical Society, è la mappa a tutto cielo con maggiore sensibilità e risoluzione mai prodotta fino a oggi delle nubi ad alta velocità dell’universo vicino, e mostra curiose nuvole di gas d’idrogeno neutro che si muovono a una velocità diversa rispetto a quella di rotazione della Via Lattea.

Stando alla nuova mappa (quella precedente è del 2016), almeno il 13 per cento del cielo è coperto da nubi ad alta velocità. «Queste nuvole di gas si stanno spostando, rispetto a noi, a una velocità che sfiora le centinaia di chilometri al secondo», spiega Westmeier, «e si tratta chiaramente di oggetti separati».

La mappa è stata compilata scattando una fotografia del cielo dalla quale è stato eliminato, in un secondo tempo, il gas che si muove allo stesso ritmo della Via Lattea, così da mostrare la posizione del gas che viaggia, invece, a velocità diverse. Il risultato è d’impatto visivo notevole: mostra un cielo a tutto tondo con ramificazioni, ciuffi e filamenti d’idrogeno neutro mai visti prima.

Gli astronomi si interrogano ora  sulla provenienza di queste nubi di gas ad alta velocità, e le ipotesi prese in considerazione sono numerose. «Conosciamo con certezza l’origine di una di queste lunghe tracce di gas, quella della cosiddetta Corrente Magellanica», dice Westmeier, «perché sembra essere collegata alle Nubi di Magellano. Ma per tutto il resto l’origine è sconosciuta».

Fino a circa un decennio fa, anche la distanza delle nubi ad alta velocità era un mistero. «Ora sappiamo che le nubi sono molto vicine alla Via Lattea, a non più di 30mila anni luce del disco. Ciò significa che si tratta, probabilmente, di gas che sta precipitando verso la Via Lattea o fuoriuscendo dalla Via Lattea. Per esempio, se è in corso attività di formazione stellare, o un’esplosione di supernova, questo potrebbe spingere il gas al di sopra sopra del disco», conclude Westmeier. La mappa sarà presto liberamente disponibile per gli astronomi di tutto il mondo.

Per saperne di più:

Powered by WPeMatico

Rappresentazione artistica dell’eliosfera. Crediti: Nasa/Goddard Space Flight Center Conceptual Image Lab

Investigare il fenomeno della modulazione solare dei raggi cosmici galattici: questo il fine di una ricerca, i cui risultarti sono ora pubblicati su The Astrophysical Journal Letters, condotta in collaborazione tra Università di Perugia, Infn e Università di Lisbona. A tal fine i ricercatori hanno analizzato una grande quantità di dati, provenienti da missioni spaziali e da osservatori terrestri, con l’obiettivo di costruire un nuovo modello numerico di trasporto di particelle cariche nel Sistema solare. Dall’analisi è emersa l’evidenza di un “ritardo” di 245 giorni (circa 8 mesi) tra l’attività magnetica del Sole e l’intensità del flusso di particelle che bombarda il nostro pianeta. Questa evidenza rivela nuove proprietà nella dinamica del trasporto delle particelle nello spazio interplanetario, proprietà che sono alla base del fenomeno della modulazione solare.

La ricerca è stata svolta nell’ambito del progetto europeo MAtISSE, un’azione Marie Skłodowska-Curie coordinata dal Dipartimento di fisica e geologia dell’Università di Perugia. «Si tratta di un progetto fortemente multidisciplinare che investe questioni di fisica fondamentale, come l’origine dei raggi cosmici e dell’antimateria, e le coniuga con gli interessi fortemente applicativi della meteorologia spaziale», commenta Nicola Tomassetti, coordinatore della ricerca. «I raggi cosmici rappresentano uno dei grandi misteri irrisolti la cui esplorazione comincia dal sistema solare. Questo progetto aggiungerà un piccolo ma importante tassello al grande puzzle di informazioni della nostra conoscenza dell’universo».

Il risultato ha anche implicazioni per la meteorologia spaziale, un campo di studi interdisciplinare che sta assumendo sempre più rilevanza nell’agenda dei programmi spaziali. Secondo gli autori della ricerca, l’esistenza di un ritardo nell’effetto di modulazione potrà consentirci di prevedere l’intensità dei raggi cosmici in arrivo con largo anticipo, attraverso l’osservazione diretta dell’attività solare. Negli ultimi mesi, ad esempio, l’attività solare è stata registrata in costante diminuzione in termini di numero di macchie solari, per cui gli scienziati si aspettano che il flusso delle particelle cosmiche continuerà progressivamente ad intensificarsi nei prossimi mesi. La possibilità di prevedere il flusso di radiazione nello spazio ha un’importanza cruciale per la pianificazione delle missioni spaziali, in particolare per valutare i rischi per gli astronauti e le strumentazioni in orbita.

L’esperimento Ams-02 a bordo della Stazione spaziale internazionale. Crediti: Nasa/Ams Collaboration.

Infine, i ricercatori hanno anche effettuato delle predizioni teoriche per la modulazione delle particelle di antimateria, come i positroni o gli antiprotoni, le quali forniscono indicazioni preziose circa una serie di nuovi fenomeni fisici, tra cui la prova indiretta delle particelle che compongono la materia oscura. La verifica di queste predizioni è oggetto di studio da parte dell’’esperimento Alpha Magnetic Spectrometer (Ams-02) attivo dal 2011 sulla Stazione spaziale internazionale.

«Ams-02 è uno strumento che misura con altissima precisione le componenti più rare della radiazione cosmica alla ricerca di antimateria come segnale di nuovi fenomeni fisici», spiega Bruna Bertucci del’Università di Perugia, coordinatrice delle attività italiane e vice-responsabile della collaborazione internazionale Ams-02. «Grazie ai dati attesi da Ams-02, che nei primi sei anni di missione ha raccolto più di 100 miliardi di eventi, sarà presto possibile caratterizzare l’evoluzione temporale dei flussi di particelle e antiparticelle di origine cosmica, e la loro connessione con l’attività solare».

Per saperne di più:

Powered by WPeMatico

Transizione della luce dallo stato fluido (a sinistra) a quello vetroso (a destra) come osservata tramite la distribuzione nello spazio di intensità luminosa

La luce è composta da fotoni, particelle elementari che generalmente non interagiscono tra loro tanto intensamente da dare luogo a fasi collettive quali quella liquida o solida, come avviene invece per la materia. Nella fisica moderna la comprensione delle fasi collettive è di particolare rilevanza nei cosiddetti sistemi disordinati o complessi, quelli cioè che presentano molteplici modalità d’interazione.  Uno dei concetti più paradigmatici e affascinanti della complessità è quello secondo il quale più copie identiche di un sistema disordinato possono mostrare comportamenti completamente differenti tra loro: teorizzato da Giorgio Parisi, tale fenomeno è noto come rottura di simmetria delle repliche e definito come fase vetrosa di un sistema disordinato, poiché caratterizzato da proprietà tipiche dello stato vetroso.

Un gruppo di ricercatori di Sapienza Università di Roma, dell’Istituto sistemi complessi del Consiglio nazionale delle ricerche (Isc-Cnr), e della Hebrew University of Jerusalem, coordinato da Eugenio Del Re e Claudio Conti, ha osservato per la prima volta la rottura di simmetria delle repliche per onde luminose che si propagano non linearmente in un mezzo disordinato. La ricerca è pubblicata sulla rivista Nature Communications.

«L’emergere di uno stato vetroso della luce è reso possibile dalla forte interazione disordinata che regola le onde elettromagnetiche quando viaggiano in particolari materiali. Per mettere in luce il fenomeno abbiamo pertanto studiato la propagazione di fasci laser in un sottilissimo film di materiale ferroelettrico disordinato e fotorifrattivo, dove i diversi raggi luminosi si influenzano fortemente ed in modo complesso tra loro», spiega Davide Pierangeli del Dipartimento di fisica di Sapienza. «Con questa abbiamo confermato come realizzazioni analoghe del sistema possano avere proprietà completamente diverse, pur nelle medesime condizioni sperimentali».

«Si tratta di una importante verifica fotonica della teoria dei sistemi disordinati. Questo studio dimostra l’universalità del fenomeno di rottura di simmetria delle repliche per onde classiche», prosegue Claudio Conti, direttore dell’Isc-Cnr.

«La scoperta di una fase vetrosa per la luce apre prospettive uniche per lo studio sperimentale di quei fenomeni complessi che raramente trovano una realizzazione in condizioni di laboratorio controllate», conclude Eugenio Del Re del Dipartimento di fisica di Sapienza. «La fisica dei sistemi disordinati ha infatti implicazioni enormi nella biologia, nelle neuroscienze, nelle dinamiche sociali, nelle nanotecnologie e nello sviluppo di nuovi materiali».

Per saperne di più:

Fonte: comunicato stampa Cnr

Powered by WPeMatico

Crediti animazione: Southwest Research Institute

L’infanzia del nostro pianeta potrebbe essere stata assai più turbolenta di quanto avessimo mai immaginato. Secondo un articolo appena pubblicato su Nature Geoscience, e firmato dai ricercatori del Southwest Research Institute, corpi celesti di dimensioni ragguardevoli avrebbero contribuito ad accrescere la massa della Terra durante una serie di violenti impatti in tutto il periodo seguente alla formazione della Luna. Ben più di quanto previsto dalle precedenti teorie.

Sapevamo già che, all’inizio della sua evoluzione, il pianeta che abitiamo ha dovuto fare i conti con un grande oggetto celeste. Da un terribile impatto ha avuto origine il nostro satellite naturale: la Luna, figlia dei detriti espulsi da una giovane Terra. A questo evento sarebbe poi seguito un lungo periodo di “bombardamenti spaziali” che hanno arricchito di nuovo materiale il pianeta.

«Abbiamo elaborato un modello che tenesse conto dei processi di assorbimento di metalli e silicati nel mantello terrestre, come della lunga serie di impatti fra Terra e planetesimi (i corpi rocciosi coinvolti nella formazione di pianeti, asteroidi e lune del Sistema solare, ndr) durato centinaia di milioni di anni a seguito del grande impatto che ha dato origine alla Luna», spiega il  primo autore dello studio, Simone Marchi, astrofisico originario di Lucca, con laurea e dottorato conseguiti a Pisa, attualmente ricercatore al Southwest Research Institute di Boulder (Colorado, Stati Uniti). «Secondo le nostre simulazioni, il contributo di questo costante martellìo celeste ha contribuito ad accrescere la massa del giovane pianeta ben più di quanto precedentemente ipotizzato».

Se fino a ieri gli scienziati hanno stimato un “contributo alieno” pari allo 0,5 per cento del totale della massa terrestre, oggi forse è necessario ritoccare questo numero in una cifra dalle due alle cinque volte maggiore.

Secondo il nuovo studio, gli elementi altamente siderofili (oro, platino, iridio) provenienti dalla lunga serie impatti che si è protratta nel tempo sarebbe insomma molto maggiore del previsto. «Un’ipotesi che ci aiuterebbe a spiegare quelle anomalie isotopiche che spesso i geologi hanno riscontrato in antichi campioni di roccia terrestre come la komatiite, una roccia vulcanica», incalza Robin Canup, coautore dello studio. «Se per esempio alcune di queste rocce si fossero formate molto tempo dopo l’impatto che ha dato origine alla Luna, durante la serie di impatti dei planetesimi, avremmo trovato una quadratura del cerchio».

Per saperne di più:

Powered by WPeMatico