Tutti gli articoli di Luigi Borghi

Un buco nero nel sistema solare?

La prima sensazione che ci pervade leggendo questo titolo è la paura.

Abbiamo spesso parlato, qui su queste pagine, di buchi neri super massicci con masse di miliardi di volte il Sole e con diametri che ingloberebbero l’orbita di Venere. Beh… tranquillizziamoci! Un buco nero di quella natura e dimensioni non lo potremo mai vedere nel sistema solare per due solide ragioni: 1) la vita in prossimità non potrebbe mai attecchire; 2) un sistema planetario come quello solare  ci sarebbe finito dentro tutto intero. Ma questo è un altro discorso. Se fino ad ora non abbiamo mai visto questo ipotetico e piccolissimo blackhole all’interno del sistema solare, nonostante telescopi a terra di 36 metri di diametro, un motivo ci sarà: forse, oltre ad essere “nero”, molto piccolo e anche molto distante (nella fascia di Kuiper), molto semplicemente non c’è!

Ma è una ipotesi più che lecita e vediamo il perchè.

Tutto è partito diversi anni fa quando i ricercatori hanno cominciato e vedere, oltre Nettuno, strane coincidenze. In quella fascia di Kuiper, dove orbitano tanti asteroidi, una popolazione di piccoli mondi ghiacciati simili a Plutone, non tutti si comportano allo stesso modo. In diversi hanno un’orbita dall’eccentricità anomala o molto più inclinata rispetto a tutti gli altri. Solo il campo gravitazionale di un pianeta piuttosto massiccio potrebbe produrre questi effetti.

Alcuni sono arrivati ​​a sospettare vi sia un pianeta molte volte la massa della Terra. E così la presenza di “Planet 9” viene più volte richiamata sul palcoscenico del Sistema solare. Nel 2016 furono annunciate le prove indirette della sua esistenza. Ma nessuno lo ha mai visto. Troppo lontano e buio. Si pensa sia una “super-Terra”, da cinque a dieci volte la massa del nostro Pianeta, dovrebbe trovarsi talmente lontano (da almeno 300 volte la distanza Terra-Sole, circa 45 miliardi di chilometri, fino a mille volte tanto) da essere praticamente invisibile a qualsiasi telescopio ottico.

Il problema è che nessuno può immaginare come un pianeta abbastanza grande da farlo possa formarsi così lontano dal sole. 

Ecco che dal momento che dalle osservazioni si deduce in modo indiretto solo la massa dell’oggetto allora un anno fa è venuto il sospetto che possa essere un buco nero primordiale.

Senza dubbio la trama del film di fantascienza “Interstellar” ha pescato proprio da questi dubbi.

Se fosse vero, sarebbe una scoperta sensazionale. 

I buchi neri primordiali ci darebbero una nuova finestra sull’universo primordiale. Potrebbero persino comprendere la materia oscura, la misteriosa sostanza che tiene insieme le galassie. Tutto ciò spiega perché i cosmologi hanno setacciato l’universo per loro. Ma nessuno aveva osato sognare che avremmo potuto trovarne uno nel nostro cortile.

A suggerire questa ipotesi sono stati due fisici: Jakub Scholtz, dell’Università di Durham e James Unwin, dell’università di Chicago e Berkeley.

Lo studio, tuttavia, è stato pubblicato solo sulla piattaforma Arxiv e pare non sia stato nemmeno sottoposto a una rivista per essere valutato da altri esperti (peer review).

Ma la loro teoria sta già facendo il giro del mondo perché è suggestiva e coinvolge un tipo di oggetti ancora solo teorizzati e mai osservati, nemmeno nei loro effetti.

Come premesso in apertura non stiamo parlando di un gigante super massiccio divoratore di stelle e pianeti. Quelli stanno al centro delle galassie. Né di un buco nero di massa stellare che si trovano in giro per il cosmo, magari in coppia con altre stelle. L’ipotesi di Scholtz e Unwin è ancora più suggestiva: un buco nero primordiale. Si tratta di oggetti, per ora solo teorizzati, che potrebbero essersi formati quando l’Universo era ancora giovanissimo e la concentrazione di materia era talmente densa da formare piccoli buchi neri, con masse di molto inferiori a quella necessaria per formarne uno “di massa stellare” (che si origina dal collasso di una stella molto più massiccia del Sole).

Quello che dovremmo cercare è dunque un buco nero davvero minuscolo, dalle cinque alle dieci masse terrestri che starebbero comodamente nel palmo di una mano.

Dieci Terre starebbero dentro ad una palla da bowling!

La loro teoria sta in piedi perché dal momento che è impossibile che nella formazione di una stella come il Sole, un pianeta roccioso così grosso si formi a quella distanza, si ipotizza che l’eventuale pianeta 9 possa essere di origine extrasolare e che sia stato catturato dalla gravitazione solare. Ma questa teoria ha le stesse probabilità che ha un buco nero primordiale di essere catturato nello stesso modo. In astronomia le teorie non osservabili stanno in piedi con le percentuali, quindi una vale l’altra.

Ma come trovarlo visto che si tratta di un oggetto molto più “nero” di un pianeta? Come per tutti i buchi neri, occorre osservare gli effetti su quello che lo circonda. In particolare, materia oscura.
Secondo Unwin e Scholtz, l’alone di materia oscura che lo circonderebbe potrebbe estendersi per otto unità astronomiche (un miliardo e 200 milioni di chilometri, la distanza tra la Terra e Saturno). Come la Relatività generale insegna (e abbiamo sperimentato) la gravità piega anche la luce. Tutta quella materia (oscura e non) dovrebbe dunque generare un effetto di “lente gravitazionale”, deviando l’immagine delle stelle sullo sfondo. Oggetti così piccoli danno origine a microlensing. Il progetto polacco Ogle, a caccia di materia oscura e richiamato nello studio, ne ha osservati diversi.

Secondo l’ipotesi, dunque, i segnali da ricercare per scovare il misterioso intruso ai confini del Sistema solare sono quelli tipici di un buco nero, alte energie come raggi X e raggi gamma.

Il bello è che in Fisica e tra le stelle, per la scienza, non si può mai escludere nulla. Nemmeno ipotesi più ardite come questa del buco nero.

Tuttavia, resterà il dubbio sui calcoli dei due fisici, se il loro lavoro non sarà sottoposto a revisione da altri colleghi.

Come si sono formati questi ipotetici buchi neri primordiali?

(da un articolo di Leah Crane): all’inizio “la luce fu”. 

Poi, apparvero altre macchie scure, la luce le circondava prima di cadervi dentro come acqua in uno scarico. 

Questi sarebbero stati i primi abitanti del nostro universo, strani piccoli buchi neri che si rimpinzavano delle radiazioni fuoriuscite dal big bang.

Man mano che il cosmo si espandeva e si raffreddava, i loro banchetti rallentarono.

Dopo milioni di anni, parte della radiazione che aveva riempito il cosmo lsciò il posto alla materia, che alla fine si è aggregò per formare le prime stelle, pianeti e galassie. 

Nel corso del tempo, alcune stelle sono diventate così grandi che quando hanno esaurito il carburante e sono collassate, si sono trasformate in buchi neri. Ma cosa è successo ai loro lontani antenati dall’alba dei tempi? Forse quei primissimi buchi neri primordiali svanirono (radiazione di Hawking) o forse erano abbastanza grandi da sopravvivere fino al presente. In ogni caso, potrebbero aiutare a risolvere alcuni dei maggiori problemi della cosmologia. 

Sempre che siano mai stati lì.

Commentato da Luigi Borghi.

Link correlati

https://www.lescienze.it/news/2019/10/09/news/buco_nero_primordiale_sistema_solare_trans-nettuniano-4577376/

https://www.universoastronomia.com/2020/07/13/pianeta-nove-e-un-buco-nero-primordiale/

Useremo il GPS anche sulla Luna!

Quando si parla di tornare sulla Luna, si pensa subito a potentissimi razzi, come il SLS della NASA, il Super Heavy (BFR) della SpaceX, il CZ9 cinese o i Enisej e Don russi (di cui, come al solito, si sa poco o nulla) ed a complesse procedure, sistemi di allunaggio e navette di ritorno. Infatti, sono elementi essenziali ed indispensabili, ma non sufficienti!
Sulla Luna e dintorni bisogna muoversi, sapere dove si è e dove si deve andare. Insomma, serve un sistema di navigazione!
Tutto ciò mi ricorda un fatto emblematico accadutomi una decina di anni fa, durante una delle mie serate di astronomia ed astronautica al Parco Ferrari a Modena. Stavo illustrando la spedizione di Apollo 11 e in quel periodo i cosiddetti “complottisti” erano ancora numerosi e convinti. Uno di questi (che durante tutta la mia spiegazione mi aveva guardato con superiorità) alla fine se ne usci con un: “Si informi meglio, sono tutte balle inventate dagli americani! Mi meraviglio che lei ce le venga a raccontare”. Naturalmente ero preparato, non era la prima volta. Quindi cercai di capire quali erano le sue ragioni e la sua risposta mi stupì: “Come hanno potuto andare sulla Luna e muoversi se nel 1969 il GPS non era ancora stato inventato?” Giuro che ne avevo sentite tante dai negazionisti, ma questa mi giunse nuova. Tentai di spiegargli che non era necessario il GPS, che l’intero nostro mondo era stato mappato ed esplorato quando non c’era neanche la radio e la corrente elettrica. Non servì a nulla! Se ne andò convinto della sua tesi.
Gli dissi pure che, ci fosse anche stato il GPS, comunque, non avrebbe funzionato al di fuori della Terra. In effetti questo sistema di satelliti non è stato studiato per servire viaggi spaziali o gite fuori porta sulla Luna.
Ma la NASA si sta dando da fare parecchio per smentire questa mia tesi.

Infatti, presso il Goddard Space Flight Center di Greenbelt, nel Maryland la NASA ha una moltitudine di strumenti a sua disposizione sperimentati in mezzo secolo di esperienza per la navigazione in missioni di esplorazione spaziale in orbita lunare e sulla sua superficie. In alcuni di questi vi è pure il contributo italiano. Ma andiamo con ordine.

Durante le prossime missioni, Artemis, oltre a comprovate capacità di navigazione, utilizzerà tecnologie innovative basate su una solida combinazione di capacità per fornire la disponibilità, la resilienza e l’integrità richieste da un sistema di navigazione in situ. Alcune delle tecniche di navigazione analizzate per Artemis includono: Radiometria, ottimetria e altimetria laser.




Il Lunar Orbiter Laser Altimeter (LOLA) a bordo del Lunar Reconnaissance Orbiter (LRO) invia impulsi laser sulla superficie della Luna dalla sonda in orbita. Questi impulsi rimbalzano sulla Luna e ritornano a LRO, fornendo agli scienziati misurazioni della distanza dal veicolo spaziale alla superficie lunare. Mentre LRO orbita attorno alla Luna, LOLA misura la forma della superficie lunare, che include informazioni sulle elevazioni e le pendenze della superficie lunare. Questa immagine mostra i pendii trovati vicino al Polo Sud della Luna.
Crediti: NASA / LRO

La radiometria, l’ottimetria e l’altimetria laser misurano le distanze e la velocità utilizzando le proprietà delle trasmissioni elettromagnetiche. Si misura il tempo impiegato da una trasmissione per raggiungere un veicolo spaziale e lo si divide per la velocità di spostamento della trasmissione (la velocità della luce), ricavandone una distanza.

Queste misurazioni accurate sono state le fondamenta della navigazione spaziale sin dal lancio del primo satellite, fornendo una misurazione accurata e affidabile della distanza tra il trasmettitore e il ricevitore del veicolo spaziale. Allo stesso tempo è possibile osservare la velocità di variazione della velocità del veicolo spaziale tra il trasmettitore e il veicolo spaziale a causa dell’effetto Doppler (la variazione di frequenza percepita da una sorgente in movimento).

La radiometria e l’ottimetria misurano le distanze e la velocità tra un veicolo spaziale e le antenne terrestri o altri veicoli spaziali utilizzando rispettivamente i loro collegamenti radio e i collegamenti di comunicazione ottica a infrarossi. Nell’altimetria laser e nel raggio laser spaziale un veicolo spaziale o un telescopio terrestre riflette i laser sulla superficie di un corpo celeste o un riflettore appositamente designato per giudicare le distanze.

Navigazione ottica.

Le tecniche di navigazione ottica si basano sulle immagini delle telecamere di un veicolo spaziale. Ci sono tre rami principali della navigazione ottica utilizzabili a seconda della distanza dall’obiettivo:

La navigazione ottica basata sulle stelle utilizza oggetti celesti luminosi come stelle, lune e pianeti per la navigazione (Star Trackers). Sono computer armati di obiettivi, come nella immagine, che devono puntare e seguire una o più stelle. L’angolo formato tra la direzione dell’obiettivo e la struttura del mezzo che lo ospita fornisce i valori di rollio, beccheggio ed imbardata, quindi l’assetto di un veicolo spaziale e possono definire la loro distanza dagli oggetti utilizzando gli angoli tra di loro (usati anche nel progetto Apollo).

Uno star tracker.

Quando un veicolo spaziale si avvicina a un corpo celeste, l’oggetto inizia a riempire il campo visivo della telecamera. I “navigatori” (umani o computer) ricavano quindi la distanza del veicolo spaziale dal corpo usando il suo profilo – il bordo apparente del corpo – e il centroide, o centro geometrico calcolato in base all’arco.

All’approccio più vicino, Terrain Relative Navigation utilizza le immagini della telecamera e l’elaborazione del computer per identificare le caratteristiche della superficie note e calcolare la rotta di un veicolo spaziale in base alla posizione di tali caratteristiche nei modelli o nelle immagini di riferimento. Anche questo usato su Apollo.

Segnale debole GPS e GNSS.

Infine, “udite udite”, la NASA sta sviluppando capacità che consentiranno alle missioni sulla Luna di sfruttare i segnali delle costellazioni del Global Navigation Satellite System (GNSS) come il GPS USA. Questi segnali, già utilizzati su molti veicoli spaziali in orbita attorno alla Terra, miglioreranno i tempi, la precisione del posizionamento e aiuteranno i sistemi di navigazione autonomi nello spazio cislunare e lunare.

Ma come faranno ad utilizzare i segnali dei satelliti GPS che hanno le loro antenne rivolte verso la superfice terrestre?

La NASA ha esplorato la fattibilità dell’utilizzo di segnali del lobo laterale (SIDE LOBE) dal lato opposto della Terra, per la navigazione ben al di fuori di quello che era stato considerato il volume del servizio spaziale e nello spazio lunare. Negli ultimi anni, la Missione Magnetosferica Multiscala (MMS) ha persino determinato con successo la sua posizione utilizzando segnali GPS a distanze quasi a metà strada Terra-Luna.

Oltre i 1.800 miglia di altitudine, la navigazione con GPS diventa più impegnativa. Questa distesa di spazio è chiamata Space Service Volume e si estende da 1.800 fino a circa 22.000 miglia (36.000 km) o orbita geosincrona. 

Ad altitudini oltre le costellazioni GNSS stesse gli utenti devono iniziare a fare affidamento sui segnali ricevuti dal lato opposto della Terra.

Dal lato opposto del globo la Terra blocca gran parte dei segnali GNSS (vedi figura in basso), quindi i veicoli nel volume del servizio spaziale devono “ascoltare” i segnali che si estendono ai lati della Terra, che si estendono ad angolo rispetto alle antenne GNSS. 

Formalmente la ricezione GNSS nel volume del servizio spaziale si basa sui segnali ricevuti entro circa 26 gradi dal segnale più forte delle antenne. Tuttavia, la NASA ha avuto un notevole successo utilizzando segnali del lobo laterale GNSS più deboli (che si estendono ad un angolo ancora maggiore dalle antenne) per la navigazione dentro e oltre il volume del servizio spaziale.

Dagli anni ’90 gli ingegneri della NASA hanno lavorato per comprendere le capacità di questi lobi laterali. In preparazione per il lancio del primo satellite meteorologico Geostationary Operational Environmental Satellite-R nel 2016 la NASA ha cercato di documentare meglio la forza e la natura dei lobi laterali per determinare se il satellite possa soddisfare i suoi requisiti.

Un grafico che dettaglia le diverse aree di copertura GNSS.

Crediti: NASA

https://www.nasa.gov/feature/goddard/2021/nasa-explores-upper-limits-of-global-navigation-systems-for-artemis

I “navigatori” della NASA hanno simulato la disponibilità del segnale GNSS vicino alla Luna. La loro ricerca indica che questi segnali GNSS possono svolgere un ruolo fondamentale nelle ambiziose iniziative di esplorazione lunare della NASA fornendo accuratezza e precisione senza precedenti (l’avessi saputo 10 anni fa non avrei infierito così tanto sul povero complottista!)

La NASA sta lavorando ad un approccio interoperabile che consentirebbe alle missioni lunari di sfruttare più costellazioni contemporaneamente. I veicoli spaziali vicino alla Terra ricevono abbastanza segnali da una singola costellazione per calcolare la loro posizione. Tuttavia, a distanze lunari, i segnali GNSS sono meno numerosi. Le simulazioni mostrano che l’utilizzo di segnali da più costellazioni migliorerebbe la capacità delle missioni di calcolare la loro posizione in modo coerente.

Per dimostrare e testare questa capacità sulla Luna, la NASA sta progettando il Lunar GNSS Receiver Experiment (LuGRE), sviluppato in collaborazione con l’Agenzia Spaziale Italiana (eccoci qua! Ci siamo anche noi!)

LuGRE volerà su una delle missioni commerciali Lunar Payload Services della NASA e prevede di farlo atterrare sul bacino del Mare Crisium della Luna nel 2023.

LuGRE riceverà segnali sia dal GPS che da Galileo (il GNSS gestito dall’Unione Europea)

I dati raccolti verranno utilizzati per sviluppare sistemi GNSS lunari operativi per future missioni sulla Luna. 

 Servizi di navigazione LunaNet

Crediti: NASA / Resse Patillo.

LunaNet è un’architettura di comunicazione e navigazione unica sviluppata dal programma Space Communications and Navigation (SCaN) della NASA. Gli standard, i protocolli ed i requisiti di interfaccia comuni di LunaNet estenderanno l’internetworking alla Luna offrendo flessibilità e accesso ai dati senza precedenti.

Per la navigazione l’approccio LunaNet offre indipendenza operativa e maggiore precisione combinando molti dei metodi di cui sopra in un’architettura senza soluzione di continuità. 

Il software di navigazione autonoma sfrutta misurazioni come radiometria, navigazione celeste, altimetria, navigazione relativa al terreno e GNSS per eseguire la navigazione a bordo senza contatto con operatori o risorse sulla Terra e consentendo ai veicoli spaziali di manovrare indipendentemente dai controllori della missione terrestre. 

Questo livello di autonomia consente la reattività all’ambiente spaziale dinamico.

La navigazione autonoma può essere particolarmente utile per l’esplorazione dello spazio profondo, dove il ritardo delle comunicazioni può ostacolare la navigazione in situ. Ad esempio, le missioni su Marte devono attendere da otto a 48 minuti per le comunicazioni di andata e ritorno con la Terra, a seconda delle dinamiche orbitali. Durante le manovre critiche i veicoli spaziali necessitano del processo decisionale immediato che il software autonomo può fornire.

Insomma, anche sulla Luna o su Marte avremo un dispositivo, come quello nella illustrazione, che pur non essendo un GPS ci garantirà più o meno lo stesso servizio con qualche cosa in più

Commentato da Luigi Borghi.

Link correlati

https://www.nasa.gov/feature/goddard/2021/nasa-engineers-analyze-navigation-needs-of-artemis-moon-missions

https://www.nasa.gov/SCaN/

Il radiotelescopio di Arecibo ci manca.

Oggi ho pensato di ripescare il disastro del radiotelescopio di Arecibo a Porto Rico, il più potente del mondo prima dell’avvento del FAST cinese, perché leggendo un articolo su Space Daily (che vi propongo nel link) appare evidente l’importanza che aveva questa parabola da 300 metri nel mondo scientifico.

“Secondo la NASA questo crollo renderà difficili alcune osservazioni di una imminente missione su asteroidi”.

Vediamo perché.

La NASA, in collaborazione con altre agenzie, sta studiando e sviluppando un metodo per deviare la traiettoria di un asteroide qualora si riscontrasse una rotta di collisione con la Terra. Un progetto che prevede l’individuazione del pericolo di collisione diversi anni prima dell’impatto, cosa che oggi siamo in grado di fare.

Nel nostro caso specifico si tratta della missione Double Asteroid Redirection Test (DART).

L’obiettivo principale della missione sugli asteroidi DART, che avrà luogo nel 2022, è quello di far schiantare un veicolo spaziale contro una piccola luna che orbita attorno all’asteroide Didymos e osservare come l’impatto influisce sul suo movimento. 

L’osservazione iniziale di tale impatto non sarà influenzata molto dalla perdita di Arecibo, ma le immagini radar di follow-up saranno limitate a un telescopio radar più piccolo e meno sensibile, il Goldstone Observatory nella California meridionale, che fa parte del sistema Deep Space Netwok (DSP) utilizzato per la comunicazione con le sonde interplanetarie.

Arecibo avrebbe potuto dare un valore aggiunto a tale missione, usando il potente radar per confermare ciò che i telescopi ottici osserveranno comunque sull’impatto dalla luce riflessa.

Senza Arecibo, utilizzando solo Goldstone, questo sarà più difficile, ma sarà comunque realizzabile.

SpaceX prevede di lanciare il veicolo spaziale DART dalla base dell’aeronautica di Vandenberg in California. Il costo totale della missione è di circa 320 milioni di dollari, incluso il lancio.

Ma quale sarà il futuro di questa struttura? Si ricostruirà un radiotelescopio più potente?

Qui si evidenzia di nuovo la guerra di pensiero tra chi sostiene lo spazio come ambiente ideale per investire in telescopi (necessariamente più piccoli e costosi oltre che difficilmente manutenibili) e chi invece preferisce la terra con grandi telescopi a portata di mano.

La National Science Foundation (NSF), proprietaria della struttura di Arecibo, ha affermato che un nuovo progetto di costruzione di questo tipo dovrebbe seguire il processo dell’organizzazione per la costruzione di nuove strutture importanti, in altre parole ripartire da zero.

Arecibo è gestito da una coalizione di organizzazioni guidata dall’Università della Florida centrale la quale apprezza che la NSF abbia in programma di mantenere aperte alcune strutture dell’osservatorio, tra cui il centro visitatori e una parabola di soli 12 metri di diametro.

La fondazione prevede anche una serie di seminari a giugno per ascoltare idee per il futuro di Arecibo.

È impressionante la precisione temporale con la quale era stato previsto il crollo. Come si vede da questo video c’era un drone in volo con l’obiettivo rivolto proprio verso il cavo che per primo si è rotto ed ha dato inizio al disastro.

I cavi del telescopio si erano lesi nei mesi precedenti il ​​crollo, ma gli investigatori non sono ancora in grado di individuare la causa di quei guasti. La struttura, fino al suo collasso, era stata uno strumento principale per un consorzio di scienziati noto come NANOgrav per studiare i buchi neri supermassicci basati sulla rilevazione delle onde gravitazionali.

In un documento pubblicato a dicembre, gli scienziati che hanno utilizzato Arecibo hanno delineato le loro speranze per un nuovo e più potente telescopio radar da ricostruire ad Arecibo.

Questo processo potrebbe richiedere anni poiché la comunità astronomica esamina le priorità a lungo termine.

Il piatto di Arecibo è stato costruito a Porto Rico perché gli scienziati avevano individuato una valle delle dimensioni e della forma giuste per supportare la sua enorme struttura. 

Ovviamente io spero che venga ricostruito, più moderno e magari con la possibilità di entrare in rete interferometrica con il FAST cinese. Sarebbe un goal per l’osservazione del cosmo, per la collaborazione internazionale… ma forse resterà un sogno. Io però ci credo al punto che Arecibo è un protagonista nel mio nuovo romanzo “Civiltà scomparsa”, che uscirà a giorni, dove nel 2074 verrà utilizzato per una nuova impresa di comunicazione con…. Beh, basta così. Altrimenti non ci sarà soddisfazione nel leggerlo. Manderò un messaggio quando vi sarà la presentazione on line sul canale 85 del digitale terrestre TVB studio 85, con il giornalista Tito Taddei nella sua rubrica Observer.

Commento di Luigi Borghi.

Ecco l’articolo che trovate su:

https://www.spacedaily.com/reports/Arecibo_telescope_collapse_may_complicate_NASA_asteroid_mission_999.html

Il filmato del collasso.

Il volo della SN10 di SpaceX: successo o fallimento?

Nella tarda notte di mercoledì 3 marzo, a Boca Cica in Texas, sede della base di lancio e test della Space X, la compagnia del miliardario Elon Musk, è stato eseguito il terzo tentativo di lancio del prototipo di Star-ship SN10 (SN sta per Serial Number).  Naturalmente io ero lì, sintonizzato su uno dei tanti canali YouTube che lo facevano vedere dal vivo. Devo dire però che mai come in questo caso i giudizi postumi sul test siano stati così distanti l’uno dall’altro. Diametralmente opposti: si va dal grandioso successo al drammatico fallimento.

Mi sono pertanto sentito il dovere di fare chiarezza.

SpaceX, come anche altre aziende private di cultura anglosassone, seguono un metodo sperimentale molto veloce e pragmatico per arrivare alla innovazione tecnologica, in particolare in quei settori dove non ci sono esperienza pregresse e dove è possibile sbagliare senza rischiare vite umane. Uso una frase dell’amico Leonardo Avella: È una questione culturale. Nei paesi latini il fallimento è visto come una vergogna. Nei paesi anglosassoni ed in certe zone dell’America no. Il punto è che il metodo “prova e sbaglia senza vergogna” permette di progredire molto più in fretta”.

Proprio così! Certo che questo metodo deve essere abbondantemente rivisto quando a bordo del mezzo vi saranno degli astronauti, ma di certo, prima di questo obiettivo, è decisamente l’approccio più veloce.

La SpaceX sta usando risorse sue e non deve chiedere il permesso al Congresso degli Stati Uniti per spenderli!

Deve solo rispondere ai suoi azionisti i quali non guardano ai risultati parziali ma al raggiungimento degli obiettivi e su questo punto sono stati ampliamente soddisfatti.

Vi ricordate quanti Falcon9 ha perso la SpaceX in fase di rientro a terra prima di validare i mezzi ed il software per garantire il successo? Ebbene ora SpaceX è l’unica azienda al mondo, incluse le agenzie spaziali governative, ad avere questa possibilità: il riutilizzo dei booster per lanci orbitali fino ad una decina di volte!

Ciò l’ha portata ad essere assolutamente competitiva. A questo guardano gli azionisti!

Per evidenziare meglio l’approccio “prova-sbaglia-correggi e riprova” ricordo l’esempio del filamento della lampadina ad incandescenza. Quanti tentativi miseramente falliti sono stati fatti da Thomas Edison, da Joseph Wilson Swan ed anche da Nikola Tesla? Migliaia! Era una tecnologia nuova, di frontiera. Poi fu Edison a brevettarla nel 1879. Non esisteva neanche la possibilità di un approccio di tipo diverso. Certo, Elon Musk è messo meglio di Thomas Edison, ma è anche vero che non deve solo accendere una lampadina ma provare mezzi che porteranno persone su Marte!

Ma veniamo al test del SN10.

Provo a fare un elenco degli obiettivi che si era posta la SpaceX:

  1. Provare la struttura delle Star-ship in volo.
  2. Testare l’uso dei motori Raptor. Voglio ricordare che i Raptor sono gli unici motori al mondo, funzionanti in Open Cycle Full Flow Staged Combustion Cycle (FFSC), che abbiano mai volato. Una configurazione complessa, realizzata in buona parte con crescita 3D e ad alto rendimento. Sono alimentati a metano perché (una delle ragioni) il metano è un combustibile che si può ricavare anche su Marte attraverso il processo Sabatier (processo usato oggi sulla ISS per produrre ossigeno). Questo ricordiamocelo è il vero obiettivo di Eloin Musk: colonizzare Marte.
  3. Collaudo delle quattro ali laterali per far planare l’astronave durante il rientro in atmosfera. Un rientro che, dal punto di vista della dissipazione del calore, non è ancora stato testato perché bisogna andare in orbita per farlo, ma il collaudo ha dimostrato di riuscire a mantenere il controllo di assetto senza l’uso di motori.
  4. Provare i serbatoi – in particolare i due piccoli, gli Header Tank (serbatoi di testa), che alimentano i motori durante la fase di discesa e che perciò hanno un volume inferiore rispetto ai due principali; 
  5. La tecnica di cambio di assetto da orizzontale a verticale durante le ultime fasi.
  6. l’atterraggio, controllo della decelerazione usando ancora i Raptor.
  7. Il software di gestione del volo.

Ebbene di tutta questa tecnologia assolutamente nuova, i risultati positivi si sono avuti già dal primo test sulla SN8, che si piantò per terra più di un mese fa ed anche nella SN 9 che, più o meno, fece la stessa fine. Sulla SN8 gli obiettivi da 1 a 5 furono raggiunti. Sulla SN9 sono stati di nuovo confermati, mentre solo in quest’ultima, la SN10, finalmente hanno avuto esito positivo anche i punti 6 e 7.

Allora perché dopo alcuni minuti dall’atterraggio, quando l’esperimento era già finito, è scoppiato?

Forse è di nuovo arrivato troppo forte e si è danneggiato qualche piede della nave (che ricordiamocelo è alta 50 metri) provocando una perdita di metano?

Io non lo so, ma sono certo che Elon Musk da questo test avrà avuto tutti i feedback per evitare che ciò accada di nuovo in futuro. “Sbagliando si impara”!

Quini devo concludere che è stato, anzi sono stati tutti assieme, un successo.

Io aggiungerei anche GRANDE, ma non cambierebbe nulla.

Sono fallimenti la mancata realizzazione di un progetto, non un progetto sbagliato che si può migliorare; lo sono pure la realizzazione di progetti che altri hanno già fatto senza aumentane le prestazioni o ridurne costi. La SpaceX non annovera questi fallimenti.

Voglio precisare che non sono un azionista di SpaceX e neanche di Tesla, e solo la mia opinione da “addetto ai lavori”.

Commento di Luigi Borghi.

Ecco l’articolo che trovate su:

Il filmato della esplosione postuma.

L’artricolo:

https://www.spacedaily.com/reports/SpaceX_more_risks_better_rockets_999.html

Come ottenere acqua sulla Luna.

Un problema che comincia a diventare attuale, visto che la NASA sta facendo sul serio. Sulla Luna ci si torna nel 2024… per restarci!

Beh… non esageriamo! Ci staremo sicuramente in orbita con un presidio umano sul Gateway, l’avamposto orbitale posizionato intorno alla Luna che fungerà da base di supporto a lungo termine per tutte le missioni del programma Artemis, ma una base permanente e presidiata sulla superfice della Luna ci vorrà ancora un po’ di tempo, ma non certo decenni!

La NASA fa sul serio perché ha appena firmato un contratto con la SpaceX per lanciare in orbita lunare, a maggio 2024 con un razzo Falcon Heavy, due elementi fondamentali del Lunar Gateway.

Gli elementi saranno il Power and Propulsion Element (PPE, modulo di produzione energia e propulsione) e l’HALO, Habitation and Logistic Outpost (l’avamposto abitativo e logistico).

Nello specifico il PPE, realizzato dalla Maxar Technologies di Westminster in Colorado, è un sistema propulsivo elettrico alimentato a energia solare con una potenza complessiva di 60 kW che permetterà di stabilire e mantenere comunicazioni ad alta velocità con la Terra e di gestire il controllo dell’assetto dell’avamposto e dell’orbita sulla quale sarà posizionato, con la possibilità di variare quest’ultima al fine di fornire un accesso più rapido e semplice alla superficie lunare.

HALO sarà invece il modulo abitativo, costruito dalla Northrop Grumman Space Systems di Dulles in Virginia, nel quale risiederanno gli astronauti che visiteranno il Gateway. È costituito da una sezione pressurizzata nella quale saranno presenti tutti i supporti vitali di base e che fungerà da centro di comando e controllo dell’intera struttura. Permetterà inoltre di svolgere attività di ricerca scientifica, distribuirà l’energia prodotta dal modulo propulsivo, assicurerà il controllo termico della stazione e sarà infine dotato di diverse zone di attracco per supportare e gestire i futuri moduli e i veicoli che visiteranno il Gateway.

L’avamposto, molto più piccolo dell’attuale Stazione Spaziale Internazionale, sarà posizionato su una particolare orbita definita Near-rectilinear halo orbit, ovvero un’orbita halo quasi rettilinea con pericinzio e apocinzio a distanza rispettivamente di 3.000 e 70.000 km dalla superficie della Luna.

(vedi animazione  qui (https://youtu.be/jfCaac1ijRg )  

Le particolari condizioni “ambientali” in cui il Gateway si troverà permetteranno alla NASA e ai suoi partner internazionali di svolgere ricerche scientifiche e tecnologiche senza precedenti, sviluppando così competenze e conoscenze fondamentali per lo sviluppo dell’esplorazione umana dello spazio.

Ma quando poi dovremo presidiare e quindi vivere per mesi sulla superficie della Luna ci servirà una risorsa essenziale: l’acqua! Ma come si fa ad estrarre acqua dalla Luna?

Comprendere le fonti dell’acqua lunare è fondamentale per studiare la storia dell’evoluzione lunare, così come l’interazione del vento solare con la Luna e altri corpi senz’aria. Recenti osservazioni spettrali orbitali hanno rivelato che il vento solare è un significativo fattore esogeno dell’idratazione superficiale lunare. 

Ciò indica che l’abbondanza di acqua nelle regioni polari può essere saturata o integrata da altre possibili fonti, come il vento terrestre (particelle dalla magnetosfera, distinte dal vento solare), che possono compensare le perdite di diffusione termica mentre la Luna si trova all’interno della magnetosfera terrestre. Questo lavoro fornisce alcuni indizi per gli studi sui sistemi pianeta-luna, in base al quale il vento planetario funge da ponte che collega il pianeta con le sue lune.

Ma la fonte principale di acqua sottoforma di ghiaccio resta comunque la zona polare.

L’acqua lunare è stata trovata bloccata sotto forma di ghiaccio nei crateri freddi, permanentemente ombreggiati ai poli della Luna, e alla deriva sotto forma di gas nella sottilissima atmosfera lunare. Inoltre, abbiamo scoperto che l’acqua esiste in tracce sulla superficie della Luna, legata ai minerali lunari. Ma l’acqua lunare è più complicata della sua semplice presenza o assenza. Si pensa anche che la Luna abbia un ciclo dell’acqua: l’acqua viene continuamente creata o consegnata alla superficie della Luna, quindi distrutta o rimossa da essa.

Comprendere i processi di guida in questo ciclo ci consentirà di sfruttare al meglio le risorse della Luna e di approfondire la nostra comprensione della fisica che influenza i corpi rocciosi senz’aria in tutto il nostro sistema solare e oltre. Sulla base di esperimenti di laboratorio e osservazioni lunari, ecco la nostra comprensione finora:

Produzione.

Riteniamo che la produzione continua di acqua superficiale lunare possa essere in gran parte guidata dai protoni in arrivo (nuclei di idrogeno) dal vento solare, che poi si legano con l’ossigeno nei minerali lunari per formare l’acqua. Possono anche contribuire altri processi, come la produzione da fonti aggiuntive di protoni in arrivo o il rilascio episodico di acqua tramite comete e asteroidi.

Rimozione.

L’acqua sulla superficie lunare viene rimossa principalmente attraverso processi continui come la fotodissociazione, la decomposizione delle molecole d’acqua da parte della luce solare.

Con le ricche osservazioni recentemente prodotte da missioni come lo spettrometro Moon Mineralogy Mapper (M3) della NASA sulla sonda orbitante indiana Chandrayaan-1, siamo attualmente in una posizione eccellente per testare questa comprensione.

In una nuova pubblicazione guidata da Huizi Wang (Università di Shandong e Accademia delle scienze cinese), un team congiunto di fisici spaziali e scienziati planetari presenta un’esplorazione della produzione di acqua sulla superficie della Luna.

Produzione ventosa.

Mentre la Luna circonda la Terra, trascorre 3-5 giorni ogni mese al riparo dal vento solare dalla magnetosfera terrestre. Se i protoni in arrivo dal vento solare sono il motore principale della produzione di acqua lunare, sostengono Wang e collaboratori, le misurazioni dell’abbondanza di acqua lunare dovrebbero mostrare una diminuzione durante quei 3-5 giorni, supponendo che l’acqua continui a essere distrutta alla stessa velocità tramite la fotodissociazione .

Invece, gli autori scoprono che la spettroscopia di M3 non rivela alcun cambiamento nell’abbondanza di acqua sull’orbita lunare completa, nonostante le osservazioni mostrino il previsto calo dell’energia eolica solare in arrivo quando la Luna passa attraverso la magnetosfera terrestre.

Un’altra fonte potrebbe contribuire alla produzione di acqua sulla Luna, mantenendo costanti le abbondanze? Wang e collaboratori dimostrano che quando la Luna è protetta dal vento solare, i protoni in arrivo dal vento terrestre – un flusso più debole di particelle cariche dalla magnetosfera terrestre – potrebbero fornire i protoni necessari per mantenere le abbondanze d’acqua osservate sulla superficie della Luna.

Ci sono ancora molte domande aperte, ma il futuro riserva maggiori opportunità per affinare la nostra comprensione. La missione lunare cinese Chang’e 5 ha misurato con successo il materiale lunare e riportato campioni sulla Terra alla fine dell’anno scorso, e le missioni Artemis sulla Luna in programma forniranno presto ulteriori informazioni.

Rapporto di ricerca: “Il vento terrestre come possibile fonte esogena di idratazione della superficie lunare”.

Commento di Luigi Borghi.

Ecco l’articolo da:

https://www.moondaily.com/reports/How_to_Get_Water_on_the_Moon_999.html

https://aliveuniverse.today/flash-news/spazio-astronomia/5137-la-terra-rifornisce-acqua-sulla-luna

Anche le galassie muoiono.

Non è una scoperta! È una conclusione scientifica. Se le stelle muoiono ovviamente anche le galassie, che loro stesse formano, dovranno prima o poi soccombere. Ma questa è la prima volta che viene documentato, attraverso osservazioni, un fenomeno del genere.
Gli astronomi, per la prima volta, sono riusciti ad osservare l’imminente morte di una galassia molto lontana: la ID2299. In particolare, sono riusciti ad individuare che la galassia stava espellendo quasi la metà del gas presente al suo interno per la formazione delle stelle. La rara osservazione è stata ripresa utilizzando l’Atacama Large Millimeter/submillimeter Array (ALMA), un telescopio presente in Cile.

La luce di questa galassia, nota come ID2299, ha impiegato circa nove miliardi di anni per raggiungere la Terra. Ciò significa che gli astronomi stanno essenzialmente osservando come appariva quando l’universo aveva solo 4,5 miliardi di anni (ora ha circa 14 miliardi di anni).

La galassia ID2299 sta perdendo gas pari a 10.000 soli all’anno, il che sta riducendo il carburante di cui ha bisogno per formare stelle rimuovendo il 46% del gas freddo totale della galassia fino ad ora.

Ma la galassia con il gas rimanente sta ancora formando rapidamente nuove stelle a una velocità centinaia di volte maggiore della nostra Via Lattea. Questo significa che consumerà il resto del gas causandone effettivamente la morte in poche decine di milioni di anni. Un flash temporale nei tempi dell’universo.

La rappresentazione artistica mostra la galassia ID2299, il risultato di una collisione tra galassie, e parte del suo gas mentre viene espulso in una “coda mareale” come risultato della fusione. Nuove osservazioni fatte con ALMA, di cui l’ESO è un partner, hanno catturato le primissime fasi di questa espulsione, prima che il gas raggiungesse le grandi scale rappresentate nell’immagine. Crediti: ESO/M. Kornmesser

Credit https://diggita.com/v.php?id=1661430

I ricercatori intendono usare ancora il radiotelescopio ALMA per ottenere osservazioni a risoluzione ancora superiore e più profonde della galassia ID2299 per capire meglio le dinamiche del gas espulso. Gli studi sui meccanismi di evoluzione delle galassie stanno diventando sempre più sofisticati, in questo caso per capire cosa possa portare alla morte di una galassia.

Il nostro Universo è un libro di storia aperto dove è possibile vedere in tempo reale il passato delle galassie lontane, con il quale poi comprendere sempre più le leggi che lo governano.

Lo studio è stato pubblicato lunedì sulla rivista Nature Astronomy .

Commentato da Luigi Borghi.

Eccovi l’articolo.

http://www.coelum.com/news/una-galassia-che-muore

http://nataleseremia.com/2021/01/11/osservata-la-morte-di-una-lontana-galassia/

Segnali positivi per l’high tech italiano: andiamo sulla Luna!

Non possiamo certo dire che il 2021 sia cominciato bene: la pandemia sta galoppando e, tanto per non farci mancare nulla, siamo pure senza governo. Ma la notizia che 9 giorni fa l’Agenzia spaziale europea (ESA) ha firmato un contratto da quasi 296 milioni di euro con Thales Alenia Space per costruire un modulo europeo per la stazione spaziale Lunar Gateway della NASA, mi fa pensare che la nostra industria aerospaziale ha dimostrato ancora una volta di essere tra i leader a livello mondiale.

Una notizia attesa perché Thales Alenia Space aveva già annunciato il 14 ottobre di essere stata selezionata per costruire il modulo ESPRIT Gateway. 

Il 7 gennaio il contratto è stato finalizzato e firmato da entrambe le parti. 

Il progetto sarà guidato da Thales Alenia Space a Cannes, in Francia, con il supporto di Thales Alenia Space in Italia e nel Regno Unito.

Il modulo ESPRIT (Sistema europeo che fornisce rifornimento, infrastrutture e telecomunicazioni) fornirà capacità di comunicazione e rifornimento a Gateway, la stazione spaziale internazionale pianificata in orbita attorno alla luna e destinata a supportare missioni con equipaggio sulla superficie lunare e oltre. 

ESPRIT consisterà di due elementi principali (frecce gialle nell’immagine credit NASA), l’Halo Lunar Communication System (HLCS) e il modulo di rifornimento ESPRIT (ERM). 

HLCS fornirà alla stazione spaziale Gateway comunicazioni dati, voce e video. Il sistema è in fase di sviluppo accelerato e dovrebbe essere lanciato nel 2024 come parte dell’US Habitation and Logistics Outpost (HALO) costruito da Northrop Grumman Innovation Systems americana.

L’ERM consentirà alla stazione di ricevere propellenti dai veicoli spaziali in visita per mantenere la sua orbita attorno alla luna e per rifornire di carburante i veicoli in transito sulla superficie lunare. Inoltre, il modulo offrirà un piccolo spazio di lavoro pressurizzato per l’equipaggio della stazione dotato di ampie finestre che offrono una vista a 360 gradi. L’ERM dovrebbe essere consegnato nel 2026 con il suo lancio successivo un anno dopo. Oltre al modulo ESPRIT, Thales Alenia Space sarà anche responsabile del modulo International Habitation (I-HAB) che fornirà alloggi per l’equipaggio e porti di attracco per supportare i veicoli in transito. Il modulo è una collaborazione congiunta tra ESA, NASA e le agenzie spaziali di Canada e Giappone. Il lancio è previsto nel 2026.

Rendering della stazione lunare Gateway (Credit NASA)

Quindi, noi ci siamo! Saremo responsabili di una buona parte dell’hardware che costituirà il Gateway che a sua volta si integrerà con il programma della NASA “Artemis” che prevede di ritorno sulla Luna di astronauti entro in 2024.

Vi propongo un link di astronautinews dove potrete trovare maggiori dettagli.

Commentato da Luigi Borghi.

Trump firma la direttiva sulla politica spaziale-6 (SPD-6) sull’energia nucleare e la propulsione spaziale.

Non c’è dubbio che il presidente USA uscente, Donald Trump, voglia lasciare il segno sulla politica spaziale americana. È di dieci giorni fa la notizia che Trump ha firmato un decreto (lui non fa i DPCM come in Italia, ma i DPR), il SPD-6, con cui lancia ufficialmente il percorso della NASA per arrivare ad avere entro fine decennio la capacità di alimentare le future colonie marziane e lunari con generatori elettrici ad energia nucleare a fissione e contemporaneamente aprire la strada alla propulsione nucleare, ed è quest’ultima la vera svolta!

Fino ad oggi le sonde nello spazio profondo ed i recenti rover marziani sono stati alimentati ad energia nucleare ma solo attraverso il calore del decadimento radioattivo del plutonio, gli RTG (Radioisotope thermoelectric generator). Fino ad ora non è mai stato reso esecutivo nessun tipo di propulsione nucleare, anche se sono stati realizzati prototipi fin dagli inizi degli anni ’60 del secolo scorso.

Ora con il programma Kilopower di cui abbiamo già parlato e che si trova già in fase sperimentale presso i laboratori di Los Alamos, si volta pagina decisamente.

Illustrazione artistica di un sistema di alimentazione a fissione sulla superficie di Marte utilizzando cinque unità da 10 kilowatt.

(Immagine: © NASA)

Potete trovare un approfondimento su questo argomentonell’articolo: “Kilopower, il generatore nucleare della NASA”, che trovate a pagina 21 del numero 37 (giugno 2018) nella nostra rivista “Il C.O.S.Mo. News” disponibile gratuitamente su questo sito qui:

(https://ilcosmo.net/wp-content/uploads/2020/05/Il-Cosmo-News-37-2018-10_02.pdf .

Il limite degli RTG era nella potenza massima che arrivava ad essere di poche centinaia di Watt, con i Kilopower si rende disponibile una “famiglia” scalabile di generatori che vanno da pochi KW a centinaia di KW. Ciò che serve per alimentare per decenni una colonia lunare o marziana.

 Questi dispositivi convertono l’energia nucleare di un reattore a fissione con uranio poco arricchito in calore per il riscaldamento delle postazioni abitative e per la strumentazione ed energia elettrica per il fabbisogno delle colonie.

Esistono già da mezzo secolo i generatori elettrici alimentati da mini-reattori nucleari a fissione. Sono da tempo installati su sottomarini, portaerei, rompighiaccio, ecc., da parte di molti paesi come USA, Russia, Cina, Europa. Ma su una nave, raffreddare l’enorme quantità di calore di “scarto” emesso da tale tecnologia è decisamente facile: si usa l’acqua dell’oceano. Su una nave spaziale o sulla Luna o su Marte le cose sono molto diverse.

Ecco che con il Kilopower si cambia proprio la tecnologia. Anziché una conversione calore-vapore-turbina-generatore, come nelle centrali installate sulle portaerei, si è passati ad una soluzione calore, fluido-Stirling-generatore.

Non pensate al classico motore Stirling con il pistone che va su e giù in un cilindro. L’usura lo distruggerebbe nel giro di pochi anni. Lo Stirling usato dalla NASA ha sì un pistone che scorre in un cilindro ma non tocca le pareti, quindi non c’è usura. Può funzione per anni senza manutenzione.

Ciò che invece produrrà una svolta epocale sarà la propulsione nucleare.

Ecco un frame del filmato che troverete nell’articolo di cui vi parlo.

Nel SPD-6, all’interno dello space nuclear power and propulsion SNPP, è previsto anche la propulsione e questo cambierà tutto!

Ne parleremo a tempo debito, quando avremo a disposizioni maggiori dettagli, per ora vi posso dire che ho in cantiere un articolo sul numero 48 che uscirà a fine febbraio e pure una pillola, la nona della serie volare, che uscirà su YouTube a metà gennaio.

Per ora vi consiglio questo articolo tratto da Space.com

Commentato e tradotto da Luigi Borghi

Ecco l’articolo:

https://www.space.com/trump-space-policy-nuclear-power-propulsion

Trump firma la direttiva sulla politica spaziale-6 (SPD-6) sull’energia nucleare e la propulsione spaziale. Di Mike Wall 16/12/2020.

Uno degli obiettivi stabiliti in SPD-6 è il test di un sistema di alimentazione a fissione sulla luna entro la metà e la fine degli anni ’20.

L’energia nucleare rappresenterà una parte importante degli sforzi di esplorazione spaziale degli Stati Uniti in futuro, afferma un nuovo documento politico.

Il presidente Donald Trump mercoledì (16 dicembre) ha emesso la direttiva sulla politica spaziale-6 (SPD-6), che definisce una strategia nazionale per l’uso responsabile ed efficace dei sistemi di energia e propulsione nucleare spaziale (space nuclear power and propulsion SNPP).

Mercoledì scorso Scott Pacevice assistente del presidente e segretario esecutivo del National Space Council ha dichiarato:“L’energia nucleare e la propulsione spaziale sono una tecnologia fondamentale per le missioni nello spazio profondo americane su Marte e oltre. Gli Stati Uniti intendono rimanere il leader tra le nazioni che viaggiano nello spazio, applicando la tecnologia dell’energia nucleare in modo sicuro, protetto e sostenibile nello spazio”.

I sistemi nucleari sono stati parti importanti del portafoglio di esplorazione della nazione per decenni. Ad esempio, molti degli esploratori robotici di più alto profilo della NASA, comprese le sonde interplanetarie Voyager 1 e Voyager 2, la sonda New Horizons nella missione su Plutone e il rover Curiosity Mars, hanno ricavato la loro energia dai generatori termoelettrici a radioisotopi (RTG), che convertono in elettricità il calore generato dal decadimento radioattivo del plutonio-238.

Un uso più esteso dei sistemi SNPP potrebbe aiutare tale portafoglio ad espandersi notevolmente nel prossimo futuro. Ad esempio, la NASA e il Dipartimento dell’Energia degli Stati Uniti stanno lavorando insieme a un progetto di reattore a fissione chiamato Kilopower (https://www.space.com/nuclear-reactor-for-mars-outpost-2022.html), che potrebbe fornire il supporto essenziale per gli avamposti con equipaggio sulla Luna e su Marte. 

E l’amministratore della NASA Jim Bridenstine ha salutato la propulsione termica nucleare, che sfrutterebbe il calore emesso dalle reazioni di fissione per accelerare i propellenti a velocità incredibili, come potenziale punto di svolta per gli sforzi di esplorazione dello spazio profondo dell’agenzia.

SPD-6 rafforza e formalizza tale impegno nei confronti dei sistemi SNPP. Ad esempio, il documento, che puoi leggere qui , afferma che gli Stati Uniti dovrebbero sviluppare, entro la metà del 2020, capacità di produzione e lavorazione di carburante sufficienti a supportare una varietà di sistemi spaziali nucleari, dagli RTG alla propulsione nucleare termica e nucleare.

Un altro obiettivo stabilito da SPD-6 è la dimostrazione di un “sistema di alimentazione a fissione sulla superficie della luna che è scalabile fino a un intervallo di potenza di 40 kilowatt elettrici (kWe) e superiore per supportare una presenza lunare sostenuta e l’esplorazione di Marte. “Se possibile, ciò dovrebbe avvenire entro la metà e la fine del 2020” afferma il documento.

SPD-6 è la sesta direttiva sulla politica spaziale firmata dal presidente Trump, come suggerisce il nome. 

SPD-1 ha ufficialmente incaricato la NASA di riportare gli astronauti sulla luna per aiutare a prepararsi per le missioni su Marte con equipaggio; 

SPD-2 ha alleggerito i regolamenti sull’industria dei voli spaziali privati; 

SPD-3 mirava ad aiutare con la gestione del traffico spaziale; 

SPD-4 ha ordinato al Dipartimento della Difesa di istituire la US Space Force;

SPD-5 ​​hanno definito una politica di sicurezza informatica per i sistemi spaziali statunitensi.

Come indica l’elenco, il presidente Trump è stato piuttosto attivo nel dominio della politica spaziale. Ha anche resuscitato il National Space Council, che era rimasto inattivo dall’inizio degli anni ’90. 

E proprio la scorsa settimana, ha emesso una nuova politica spaziale nazionale , che mira a rafforzare la sicurezza nazionale e la leadership americana nello spazio, tra gli altri obiettivi.

Mike Wall è l’autore di ” Out There ” (Grand Central Publishing, 2018; illustrato da Karl Tate), un libro sulla ricerca della vita aliena.

Il test della starship SN8 di SpaceX: fallimento o successo?

Dopo un paio di serate passate davanti al monitor a seguire i lunghissimi countdown della Space X per la partenza del suo prototipo di navetta spaziale, la SN8, finalmente mercoledì sera 9/12 alle 23:45 è partito il test. Una grande soddisfazione dopo una grande attesa.

Non avrei scritto questo commento se, il giorno dopo, non fossero apparsi articoli e strafalcioni che, ancora una volta, hanno dimostrato quanto lontano siano certi sedicenti giornalisti dal rendersi conto di ciò che stanno comunicando.

Di seguito un paio di esempi:

Rep.repubblica.it: “il fallimento della missione Space X su Marte di Elon Musk, con il razzo da oltre 200 milioni di dollari esploso”.

Radio Monte Carlo: “il razzo da miliardi di dollari è esploso poco dopo la partenza e solo Elon Musk pensa che sia un successo”.

Cosa può pensare la gente che legge o ascolta questi commenti: un fallimento! Un inutile spreco di soldi.

Invece, pensate un po’, è esattamente il contrario! È stato un successo! Come mai questa abissale differenza?

Semplice: quando non si ha idea di cosa ci si aspetta da un evento, non si ha neanche un minimo di competenza in materia e magari pure con un minimo di preconcetti su una certa persona o iniziativa, ecco che avviene il miracolo: si confondono fischi per fiaschi.

La Starship SN8 è una novità tecnologia assoluta in termini di motori, struttura, tecnica di rientro, e controllo di planata, che è partita da una rampa nuova, Boca Cica, Texas, mai usata prima per questo scopo, con i propri motori e con una gravità (quella terrestre) che mai dovrà affrontare durante i decolli nelle missioni per le quali è stata studita (decollerà solo da Marte o dalla Luna. Mai dalla Terra dove lo farà solo sopra ad un razzo e non con i suoi motori).

La Starship SN8 sulla rampa di lancio a Boca Cica. Sulla destra il primo prototipo lo “scaldabagno”.

Il costruttore, la SpaceX, attraverso il suo fondatore Elon Musk, aveva dichiarato che la navetta sarebbe stata molto probabilmente sacrificata per ottenere quei dati necessari a continuare il suo programma. Un programma che prevede alcune cosette come: mandare un equipaggio sulla Luna, colonizzare Marte, creare una linea veloce di trasporto intercontinentale, ecc.

Non è il programma degli Stati Uniti, della Cina, della Russia o dell’Europa, ma di una ditta privata chiamata SpaceX.

SN8 è ormai distrutto, ma a Boca Chica i lavori sui prototipi continuano ininterrotti, e sono già arrivati alle fasi di produzione di SN15. Il prototipo SN9 appare ormai praticamente pronto, e siamo certi che nel giro di qualche settimana potremo assistere ad un nuovo tentativo di “salto”, che speriamo sia coronato da pieno successo.

Proviamo ad esaminare tutti gli obiettivi di questo test per capire cosa è andato bene e cosa è fallito. Gli obiettivi erano:

  1. decollare con successo dalla rampa di Boca Chica spinto da 3 motori Raptor. Obiettivo raggiunto!
  2. arrivare alla quota di 12,5 chilometri: Obiettivo raggiunto.
  3. effettuare la manovra “backflip“, cioè perdere in modo controllato l’assetto verticale, spegnere i Raptor e disporsi in assetto planato con controllo aerodinamico di alette e sistema di razzetti ausiliari.  Obiettivo raggiunto.  
  4. recuperare l’assetto verticale. Obiettivo raggiunto
  5. riaccendere il/i motori Raptor e compensare fino ad annullare il movimento orizzontale indotto dal volo planato. Obiettivo raggiunto.  
  6. ritornare esattamente nella zona di atterraggio decelerando in assetto verticale. Obiettivo raggiunto
  7. atterrare lentamente sulla piazzola predisposta. Obiettivo fallito.

Starship 9 sec. dopo la partenza da Boca Cica. Texas

Se avessi sbagliato un quesito su sette, il mio vecchio prof. di elettronica, mi avrebbe premiato con almeno un 8.

Quindi non è stato un fallimento!

Starship durante il volo planato.

Non era una missione su Marte, ma sulla Terra e doveva alzarsi dal suolo di soli 12-15 km. Non sono stati buttati 200 milioni o addirittura miliardi di dollari perché sono test distruttivi previsti. Non è vero che solo Elon Musk pensa sia stato un successo perché lo penso anch’io e la maggior parte di quei 350.000 che, in diretta, stavano seguendo con competenza il test.

Questo test è da manuale ed è il frutto del gran lavoro degli ingegneri dell’azienda di Musk. Una azienda che ha dimostrato di essere all’avanguardia nel mondo e che ha raccolto il meglio dei giovani ingegneri americani che hanno voglia di misurarsi e competere su questo tipo di mercato.

Magari avessimo anche noi la possibilità di fare simili “fallimenti”.

SN8 è atterrato troppo duramente ed è esploso, ma il punto è che lo ha fatto esattamente sulla piazzola di atterraggio. Questo testimonia la già avanzata capacità di SpaceX di controllare il volo di un razzo completamente nuovo, che ha sì ereditato l’esperienza maturata con il software di controllo dal veterano Falcon 9, ma che ha una fase di volo orizzontale del tutto inedita e innovativa.

In ogni caso, a dispetto della pirotecnica conclusione, quello raggiunto oggi da SpaceX rimane un primo, storico successo. Pochi si sarebbero aspettati che già al primo volo di un prototipo si sarebbero raggiunti tanti traguardi.

Commentato da Luigi Borghi.

Vi consiglio questo articolo:

http://www.coelum.com/news/spacex-starship-sn8-balzo-perfetto-e-atterraggio-col-botto

Dal transistor grosso come un grano di mais a quello grosso come pochi atomi..

Un ragazzo che oggi esce dalla università, da un istituto tecnico o da un liceo, non rimarrà stupito da una notizia del genere. Ma uno come me che i transistor li ha maneggiati uno ad uno, prima quelli al germanio (un po’ complicato da pilotare) e poi quelli al silicio, rimane a bocca aperta.

Come progettista hardware ho vissuto tutto il cambiamento: dalle valvole termoioniche degli anni 50, ai transistor degli anni 60, poi i circuiti integrati degli anni 70, i microprocessori degli anni 80 per terminare con i microcontrollori degli anni 90 del secolo scorso. Ho finito con un Arduino!

Da sempre, nella progettazione di automazione e computing, c’è stato il problema della memoria ritentiva.

La memoria ritentiva ideale deve essere: velocissima, ad accesso casuale (cioè una RAM), piccolissima, consumi prossimi allo zero e, naturalmente, ricordarsi di ciò che ha in testa anche dopo una perdita di alimentazione.

Questi erano i miei transistor negli anni Sessanta. (… ma non si ricordavano di nulla!)

(Prodotti dalla Texas Instruments, si vede il profilo dello stato USA sul contenitore)

Di memorie ne sono state inventate tantissime, basate su diverse tecnologie, ma tutte quante dovevano sacrificare una o più di queste caratteristiche. Ai tempi del progetto Apollo (metà anni Sessanta), la soluzione fu la memoria a nuclei in ferrite (core) che era veloce (per gli standard di allora) era ad accesso casuale, ma non era di certo piccola. I singoli bit (gli anellini di ferrite che stazionavano all’incrocio dei cavi di indirizzo e di “sense”) si potevano vedere ad occhio nudo. Si è passato poi alle RAM CMOS che avevano tutte queste caratteristiche (anche se molto più voluminose delle DRAM) ma mantenevano i dati solo perché avevano una batteria che gli garantiva l’alimentazione.

Finita la batteria, addio memoria.

Oggi invece la più soddisfacente soluzione è la combinazione Flash memory (che hanno sostituito gli Hard Disk) con le DRAM. Le prime ritengono i dati anche in mancanza di tensione (onestamente non si sa ancora bene per quanto tempo, ma probabilmente più di un decennio), ma li restituiscono non in modo random ma seriale. Insomma, ci vuole qualche decina di secondi di pazienza. Poi questi dati vengono memorizzati nella DRAM e a questo punto si va a scheggia! C’è da aggiungere che le Flash memory non “godono” quando le scrivi e con l’andar del tempo ti piantano in asso. (mediamente su un PC, meno di dieci anni)

L’articolo che vi propongo oggi invece vi parla dei risultati di una ricerca su un principio che già si conosceva da tempo e cioè la Commutazione resistiva non volatile (NVRS).

Queta tecnologia, nota anche come memristor, consiste sostanzialmente in un componente elettronico passivo a due terminali (come una resistenza, un condensatore o una induttanza), ma che può cambiare la sua resistenza interna e ricordarsi di averlo fatto!

Sebbene il memristore fosse stato teorizzato e descritto sin dal 1971 da parte di Leon Chua dell’Università di Berkeley, in un articolo pubblicato su IEEE Transactions on Circuit Theory, è rimasto un dispositivo teorico fino a pochi anni fa.

Si tratta di un bipolo in cui una variazione di carica elettrica, dà luogo ad una variazione di flusso magnetico e quindi ad una tensione, che dovrebbe localizzarsi ai capi del componente. (Fonte Wikipedia).

Quando la tensione viene fornita attraverso gli elettrodi di platino, gli atomi di Tio2 si diffonderanno a destra o a sinistra nel materiale in base alla polarità della tensione che rende più sottile o più spesso, quindi dà una trasformazione in resistenza.

Il memristore ha la proprietà di “ricordare” lo stato elettronico e di rappresentarlo mediante segnali analogici. Un circuito di questo tipo consentirebbe di realizzare calcolatori con accensione istantanea, senza la necessità di ricaricare il sistema operativo a ogni avvio.

Il circuito, infatti, conserva l’informazione anche in assenza di corrente elettrica, quando il calcolatore è spento.

La capacità di memorizzare segnali analogici anche nelle memorie allo stato solido non volatili consentirebbe di memorizzare ed elaborare una mole di dati molto maggiore di quella trattata con i circuiti digitali, in grado di rappresentare solo due stati (0 ed 1).

Il memristore apre a una nuova generazione di memorie e di potenze di calcolo.

Promette una capacità di circa 25 terabit per centimetro quadrato. Questa è una densità di memoria 100 volte superiore per strato rispetto ai dispositivi di memoria flash disponibili in commercio.

La fine delle flash memory e dei dischi rigidi.

Nell’ultimo decennio si sono avute notevoli progressi nei materiali di commutazione resistiva non volatili come gli ossidi metallici e gli elettroliti solidi. Si è creduto a lungo che le correnti di perdita avrebbero impedito l’osservazione di questo fenomeno per strati isolanti nanometrici-sottili. Tuttavia, la recente scoperta della commutazione resistiva non volatile in monostrati bidimensionali di dicalcogenide metallica di transizione e nitruro di boro esagonale le strutture sandwich (note anche come atomristors) hanno confutato questa convinzione e aggiunto una nuova dimensione dei materiali grazie ai vantaggi del ridimensionamento delle dimensioni.

L’imaging atomistico e la spettroscopia rivelano che la sostituzione del metallo in un posto vacante di zolfo si traduce in un cambiamento non volatile nella resistenza, che è confermato da studi computazionali su strutture di difetti e stati elettronici.

Questi risultati forniscono una comprensione atomistica della commutazione non volatile e aprono una nuova direzione nell’ingegneria dei difetti di precisione, fino a un singolo difetto, verso il raggiungimento del più piccolo memristor per applicazioni in memoria ultra-densa, calcolo neuromorfico e sistemi di comunicazione a radiofrequenza.

Commentato da Luigi Borghi

Eccovi l’articolo tradotto.

https://www.sciencedaily.com/releases/2020/11/201123161014.htm https://qnewshub.com/technology/worlds-smallest-atom-memory-unit-created/

È stata creata la più piccola unità di memoria retentiva atomica al mondo.

Da Staff Writers Austin TX. (SPX) 27 novembre 2020.

Chip più veloci, più piccoli, più intelligenti e più efficienti dal punto di vista energetico per tutto, dall’elettronica di consumo ai big data, all’informatica ispirata al cervello potrebbero presto essere in arrivo dopo che gli ingegneri dell’Università del Texas ad Austin hanno creato il dispositivo di memoria più piccolo di sempre.

E nel processo, hanno capito la dinamica fisica che sblocca dense capacità di archiviazione della memoria per questi piccoli dispositivi.

La ricerca pubblicata di recente su Nature Nanotechnology si basa su una scoperta di due anni fa, quando i ricercatori hanno creato quello che allora era il dispositivo di archiviazione della memoria più sottile. In questo nuovo lavoro, i ricercatori hanno ridotto ulteriormente le dimensioni, riducendo l’area della sezione trasversale a un solo nanometro quadrato.

Ottenere un controllo sulla fisica che impacchetta la capacità di archiviazione della memoria densa in questi dispositivi ha permesso di renderli molto più piccoli. Difetti o buchi nel materiale forniscono la chiave per sbloccare la capacità di archiviazione della memoria ad alta densità.

“Quando un singolo atomo metallico aggiuntivo entra in quel buco su scala nanometrica e lo riempie, conferisce parte della sua conduttività nel materiale, e questo porta a un cambiamento o a un effetto memoria”, ha detto Deji Akinwande, professore presso il Department of Electrical and Computer Engineering.

Sebbene abbiano usato il disolfuro di molibdeno – noto anche come MoS2 – come nanomateriale primario nel loro studio, i ricercatori pensano che la scoperta potrebbe applicarsi a centinaia di materiali atomicamente sottili correlati.

La corsa per realizzare chip e componenti più piccoli è tutta legata alla potenza ed alla convenienza. Con processori più piccoli, è possibile creare computer e telefoni più compatti. Ma ridurre i chip riduce anche il loro fabbisogno energetico e aumenta la capacità, il che significa dispositivi più veloci e intelligenti che richiedono meno energia per funzionare.

“I risultati ottenuti in questo lavoro aprono la strada allo sviluppo di applicazioni di generazione futura che interessano il Dipartimento della Difesa, come lo storage ultra-denso, i sistemi di calcolo neuromorfico, i sistemi di comunicazione a radiofrequenza e altro ancora”, ha dichiarato Pani Varanasi, program manager del U.S. Army Research Office, che ha finanziato la ricerca.

Il dispositivo originale – soprannominato dal team di ricerca “atomristor” – era all’epoca il dispositivo di memorizzazione più sottile mai registrato, con un singolo strato atomico di spessore. Ma ridurre un dispositivo di memoria non significa solo renderlo più sottile, ma anche costruirlo con un’area di sezione trasversale più piccola.

“Il Santo Graal scientifico per il ridimensionamento sta scendendo a un livello in cui un singolo atomo controlla la funzione di memoria, e questo è ciò che abbiamo realizzato nel nuovo studio”, ha detto Akinwande.

Il dispositivo di Akinwande rientra nella categoria dei memristors, una popolare area di ricerca sulla memoria, incentrata sui componenti elettrici con la capacità di modificare la resistenza tra i suoi due terminali senza la necessità di un terzo terminale nel mezzo noto come gate. Ciò significa che possono essere più piccoli dei dispositivi di memoria di oggi e vantare una maggiore capacità di archiviazione. Questa versione del memristor – sviluppata utilizzando le strutture avanzate dell’Oak Ridge National Laboratory – promette una capacità di circa 25 terabit per centimetro quadrato. Questa è una densità di memoria 100 volte superiore per strato rispetto ai dispositivi di memoria flash disponibili in commercio.