5 maggio 2020

Ma quindi come si fotografano i pianeti?

Immaginate di aver appena comprato un telescopio, per esempio un 20 cm, e che vogliate scattare una foto a Venere. Siccome siete delle persone previdenti avete comprato l'anello T2 necessario a connettere la vostra reflex al telescopio. Ciò che ottenete, però, è un piccolo budino tremolante e sfocato, senza dettagli. Come si fa quindi a ottenere quella bella falcetta definita che si vede su Stellarium?

Il problema principale è il seeing. La luce proveniente dallo spazio deve attraversare l'atmosfera terrestre prima di essere raccolta dai nostri sensori fotografici o dai nostri occhi. Se questa fosse statica ed omogenea non avremmo grossi problemi, ma ovviamente non è questo il caso reale. L'atmosfera è un continuo divenire di bolle d'aria calde e fredde, moti convettivi, venti, turbolenze e quant'altro. Tutti questi fenomeni modificano il cosiddetto indice di rifrazione dell'atmosfera: esattamente come nelle lenti, una variazione di indice di rifrazione provoca una deviazione del raggio luminoso. Ciò produce una deformazione nelle immagini, che può essere più o meno disastrosa per le osservazioni. Ci sono due modi per eliminare questo disturbo, entrambi molto al di fuori della portata di un astrofilo. il primo è andare nello spazio, come il telescopio Hubble, fuggendo dall'atmosfera. Il secondo metodo è detto ottica adattiva, che consiste nel deformare gli specchi migliaia di volte al secondo in modo da compensare la deformazione indotta dall'atmosfera.

Effetti del seeing su una mia ripresa lunare. Le oscillazioni più
ampie sono causate da folate di vento che muovono il telescopio.
Siccome non disponiamo di milioni di euro dobbiamo arrangiarci in un altro modo. L'idea è molto semplice: se l'atmosfera varia casualmente dovrà pur esserci un momento di calma in cui l'immagine non è molto disturbata! Riprendendo moltissimi fotogrammi al secondo si sfruttano questi brevi momenti di calma per ottenere delle immagini nitide, in una tecnica chiamata lucky imaging, che tra l'altro è sfruttata anche nei grandi osservatori non ancora dotati di ottiche adattive. 

Il segreto per riprendere ottime immagini planetarie è quindi riprendere molti fotogrammi al secondo, con pose sufficientemente brevi (pochi millisecondi) in modo da "congelare" il seeing e riuscire a filtrare dei frame in cui l'atmosfera è immobile. La differenza tra un buon frame e un pessimo frame è enorme! Quando ci si trova al telescopio, quindi, usando software come SharpCap o Firecapture (il primo ha la versione di prova gratuita, il secondo è totalmente gratuito) si deve riprendere un video della durata di qualche minuto in modo da catturare più immagini possibile.



Fare un video e selezionare una singola immagine buona, però, non è il miglior metodo per ottenere una foto planetaria. E' necessaria molta più elaborazione. Il primo passo è mediare molti fotogrammi, chiamato in gergo stacking, per ridurre il rumore della telecamera. Per fare ciò è necessario automatizzare la scrematura dei fotogrammi: un video tipico contiene infatti migliaia o decine di migliaia di frames! Ispezionarli a mano è un grosso attentato alla sanità mentale (anche se ci sono persone che lo fanno). Vengono in nostro soccorso i programmi dedicati. Software come Registax, AutoStakkert3, PIPP, Astrosurface (tutti gratuiti) vengono in nostro soccorso utilizzando degli algoritmi che valutano in maniera affidabile la qualità dei frames. Nel software AutoStakkert3, per esempio, basta inserire il proprio filmato e cliccare sul tasto "analyse", dopo avergli specificato se stiamo riprendendo un pianeta (quindi un oggetto piccolo su sfondo nero) o un dettaglio superficiale del Sole o della Luna. 

Ad analisi completata salterà fuori un grafico che ci permette di valutare la qualità dei frames ripresi. 


La curva grigia ci mostra come varia la qualità dei frames durante il video, quindi possiamo vedere i momenti di calma e i momenti di atmosfera turbolenta. La curva verde invece ci fa vedere quanti sono i frames buoni. Più la curva verde si trova nella parte superiore del grafico, migliore è la qualità della ripresa e maggiore sarà la quantità di frames "buoni" che varrà la pena mediare. Di norma è raro mediare più del 10% dei frames catturati, a meno che la serata non sia proprio perfetta. Solitamente tronco i frames da processare nel momento in cui la qualità scende sotto il 60-70%, corrispondente al 10% dei frames circa. In Autostakkert si può impostare il numero o la percentuale di frames da mediare nei rettangolini rossi/verdi in alto a destra. 



La scritta "stack", però, è ancora grigia! Manca ancora un passaggio importante: il posizionamento degli align points. Il seeing può avere una componente a frequenza più bassa che anziché sfocare l'immagine tende a deformarla, pur lasciando visibili i dettagli fini. Ciò che fanno diversi software è dividere l'immagine in tanti tasselli che di frame in frame vengono allineati come in un puzzle, in modo da ottenere un'immagine finale in cui ogni singolo dettaglio è correttamente allineato. 
Un esempio di come Venere viene deformato dal
seeing pur restando relativamente "a fuoco"
Gli align points vanno posizionati in punti "strategici" dell'immagine, per permettere al software di orientarsi ed essere in grado di completare il puzzle di cui sopra frame dopo frame. Autostakkert permette di scegliere le dimensioni degli align points. Questi non vanno impostati né troppo piccoli, né troppo grandi. Se fossero troppo piccoli Autostakkert non riuscirebbe a capire a quale parte dell'immagine appartengono, mentre se fossero troppo grandi l'immagine si deformerebbe all'interno dello stesso align point, rendendo inutile questo procedimento. 

Stesso venere di prima, ma con gli Align Points


Impostate le giuste dimensioni di align points è possibile posizionarli manualmente oppure automaticamente cliccando su "Place AP grid". Funziona quasi sempre, ma in alcune mie riprese ho ottenuto risultati migliori posizionandoli manualmente, quindi vale la pena fare un po' di tentativi.  AS3 permette anche di posizionare align points di dimensioni variabili, cosa che ho trovato molto utile nelle riprese lunari. Posizionata la griglia di align points, finalmente, possiamo premere su stack! Ci vorrà qualche minuto, e questo tempo dipenderà ovviamente dal numero di frames sommati e la risoluzione del video.


L'immagine in formato .tiff ottenuta sarà, almeno a prima vista, un po' sfocata. Per estrarre i dettagli presenti nell'immagine bisogna infatti usare Registax 6, in particolare la funzione Wavelets. I wavelet sono un arcano concetto matematico applicato all'elaborazione delle immagini. L'idea è "affettare" l'immagine in diversi livelli, divisi in base a quanto sono grandi i dettagli. Dopodiché si aumenta il contrasto (ovvero schiarisco le luci e scurisco le ombre) solo sul livello di dettagli che ci interessa. Nella schermata di Registax infatti si può vedere ogni wavelet (da 1 a 6, solitamente) che scala di dettagli va a modificare. Non c'è una regola scritta su come usare i wavelets: dipende molto dall'oggetto che si sta fotografando e dalla qualità dell'immagine. Solo una cosa è certa: i wavelets non fanno miracoli! La ripresa di partenza deve essere a fuoco e il seeing decente per ottenere buoni risultati. 

La schermata dei wavelet di Registax. Spostando lo slider si può decidere
quanto aumentare la nitidezza su un certo livello di dettaglio. 
Di seguito ecco gli effetti dei wavelets sui crateri Plato e Tycho. Il miglioramento è enorme!

Plato (wavelet applicati sulla parte destra)


Tycho (wavelet applicati sulla parte destra)

Naturalmente è necessaria un po' di pratica per ottenere buoni risultati: negli ultimi due mesi, dall'inizio del lock-down, ho accumulato circa 20 serate di riprese lunari. Ho quindi avuto modo di giocare parecchio con le impostazioni sia in fase di ripresa che di elaborazione. Prima o poi vi dirò qualche trucchetto, ma quelli sono più specifici a seconda dell'oggetto ripreso, quindi stonano un po' su un post introduttivo come questo.

Ammetto di essere stato un po' tecnico, ma spero di avervi dato almeno un'idea di come funziona il mondo delle riprese planetarie ad alta risoluzione. Non sono il massimo esperto mondiale in questo campo, dato che lo sto approfondendo seriamente da nemmeno due mesi, ma spero vivamente di poter incuriosire qualcuno e spingerlo a comprare una telecamerina planetaria! 


18 aprile 2020

Guida di sopravvivenza ai satelliti Starlink

Ho osservato proprio ieri sera un passaggio dell'ultimo "trenino" di satelliti Starlink. Per quanto rappresentino uno spettacolo suggestivo, gli astrofili di tutto il mondo tremano al pensiero di un futuro non troppo remoto in cui il cielo sarà riempito da migliaia di satelliti, che rovineranno inesorabilmente le nostre immagini astronomiche. Ho sperimentato un po' sui metodi di elaborazione delle immagini per cercare di ridurre al minimo questo problema, e mi è sembrato il caso di scrivere una breve guida di sopravvivenza. 



Quando noi facciamo una foto astronomica stiamo in realtà facendo una misura della luminosità del cielo: ogni pixel, quindi, è una misura della luminosità di quel quadratino di cielo che sta inquadrando. Esattamente come in laboratorio di fisica, quindi, possiamo migliorare la precisione della nostra misura (ovvero ridurre il rumore) effettuando delle misure ripetute. Questo è il motivo per cui, normalmente, scattiamo molte foto per poi eseguire uno "stacking". Utilizzando un dubbio parallelismo tra la fotografia astronomica e la misura di un tavolino, quindi, cerchiamo di capire come funzionano i vari algoritmi di stacking e di trovare quello migliore per le nostre esigenze. 

La prima cosa che viene in mente, che è anche l'algoritmo di stacking più utilizzato, è fare la media delle misure. Questo sistema funziona bene finché tutte le misure sono più o meno simili tra loro.

Le cose si complicano, però, in presenza di misure molto diverse dalle altre, come nel caso degli Starlink. I satelliti sono infatti decine o centinaia di volte più luminosi del fondo cielo. E' come misurare la lunghezza di un tavolo utilizzando un metro e ottenere le seguenti misure: 

74.2 cm, 74.3 cm, 73.9 cm, 74.0 cm, 74.1 cm, 81938.16 cm. 

Fare la media non è una buona idea, perché il nostro tavolo sarebbe lungo 164 metri! Traducendo questo in fotografia astronomica, il satellite lascia una strisciata ben visibile. In questo caso abbiamo una misura molto più grande del valore medio e cinque misure molto più piccole del valore medio. Provando a fare lo stack medio di 7 immagini, infatti, si ottiene questo:


Un modo più intelligente di trattare queste misure è considerare la mediana. Se prima avevamo cinque misure molto più piccole della media e una misura molto più grande, adesso scegliamo un valore posizionato in modo da avere lo stesso numero di misure più grandi e più piccole: tre da una parte, tre dall'altra. Il risultato, sempre applicato al nostro tavolo, è 74.2 cm. E' leggermente sbilanciato verso verso le misure più grandi che abbiamo ottenuto, ma non è disastroso come prima. Applicando lo stesso ragionamento alle foto di cui sopra otteniamo un risultato nettamente migliore.


Le tracce sono quasi scomparse! Siamo sulla buona strada, ma si può fare di più. Se fossimo stati in laboratorio di fisica a misurare il tavolo e avessimo ottenuto una lunghezza di 819 metri avremmo sicuramente buttato la misura, considerandola evidentemente sballata. Nel caso delle immagini astronomiche, però, non sempre conviene buttare uno scatto, specialmente quando si lavora con pose lunghe, perché possono comunque contenere molto segnale utile. Ciò che facciamo, quindi, è escludere soltanto i pixel interessati dal passaggio del satellite, trasferendo in un algoritmo il processo mentale che ci ha fatto dire "ok questa misura è decisamente sbagliata, eliminiamola". 

L'ultimo metodo si chiama kappa-sigma clipping. Ciò che fa è eliminare i dati troppo lontani dalla media, utilizzando come "distanza massima" la deviazione standard dei dati, un numeretto che misura quanto i dati sono distribuiti intorno alla media. Sempre considerando le nostre misure del tavolo, la deviazione standard sarebbe circa 300 m, a causa della presenza della misura sballata. Se riprendiamo la media di prima (164 metri) notiamo che le misure "giuste" sono distanti meno di 300 m dalla media (si dice entro "un sigma"), mentre la misura sballata è ampiamente più distante. Ciò vuol dire che se impostiamo kappa = 1, ovvero eliminiamo tutte le misure che si trovano al di fuori di 1-sigma, restiamo soltanto con le misure giuste! Effettuando la media non su tutte le misure, ma solo su quelle buone, otteniamo un valore attendibile. Il risultato, infatti, è ancora migliore. 



Salvare le nostre fotografie amatoriali, però, non elimina il problema Starlink. Avere così tanti puntini luminosi in cielo potrebbe rendere difficili le misure da Terra nel visibile, specialmente per gli strumenti a largo campo come il Large Synoptic Survey Telescope. Il danno maggiore, però, si avrà in radioastronomia: se la luminosità dei satelliti può essere abbassata utilizzando vernici assorbenti, non c'è molto da fare sulla loro emissione radio, dato che sono satelliti per telecomunicazioni. Purtroppo le leggi attuali sono piuttosto vaghe su chi ha diritto di autorizzare o meno privati a lanciare megacostellazioni di satelliti. Per esempio SpaceX è stata autorizzata dagli stati uniti, ma gli starlink sono e saranno sulla testa di tutto il mondo...







9 aprile 2020

Alla scoperta dell'astrofotografia venusiana

In questo periodo singolare quanto difficile di quarantena non ho potuto far altro che riabbracciare l'astronomia balconara, per un paio di ragioni: in primo luogo, per ovvi motivi sanitari, non posso andare all'osservatorio astronomico. In secondo luogo, dopo anni passati a parassitare le telecamere dell'osservatorio, ho investito circa 500€ in una camera CMOS ASI 178 MM con annessi filtri colorati RGB, per inziare ad approfondire la fotografia planetaria ad alta risoluzione. Ovviamente in questi giorni ho avuto molto, molto tempo da dedicare a riprese ed elaborazione dei dati potendo quindi, tramite un po' di sano "trial and error", giungere a delle prime conclusioni riguardo il modo migliore (almeno a mio parere) di riprendere ed elaborare Venere.

Le nubi di Venere sono visibili nell'Ultravioletto vicino o nell'infrarosso, quindi per sperare di riprenderle è necessario un filtro che trasmetta queste zone dello spettro elettromagnetico. Un filtro passa-UV costa parecchio ed è un po' difficile procurarselo di questi tempi, quindi mi sono dovuto inventare qualcosa di diverso. Da un kit di filtri per l'osservazione visuale ho rimediato un filtro Wratten #47, che trasmette più o meno tra i 250 e i 450 nanometri, quindi a cavallo del vicino ultravioletto. Il problema di un filtro a vetro colorato come questo è che trasmette anche l'infrarosso. Per evitare di "sporcare" i dati in ultravioletto, quindi, l'ho affiancato ad un filtro IR-UV cut della baader che blocca l'infrarosso, pur lasciando passare la luce ultravioletta oltre i 300nm. 


Partiamo dal principio: il 15 marzo, felice come un bambino, apro la valigetta contenente la fiammante ASI 178. Catapulto il fidato C8 in balcone e inizio a riprendere. Facendo infatti un video nel canale Rosso e un video nel canale W47+IR-UV cut, fondendoli poi come canali in Photoshop, sono riuscito ad ottenere un discreto primo risultato, con forse qualche accenno di nuvolosità del pianeta. 



Il 28 febbraio tento un approccio leggermente diverso: provo a riprendere Venere con il Sole sopra l'orizzonte. Così facendo riprendo Venere ad un'altezza sull'orizzonte sensibilmente maggiore rispetto alle solite riprese al tramonto. L'unico problema è... Come puntarlo? Per fortuna viene in mio soccorso il GoTo della montatura Celestron SE: faccio l'allineamento Solar System sul Sole, puntandolo con il telescopio chiuso (non ho ancora acquistato un filtro solare per il C8), per poi fargli puntare automaticamente Venere. Con mia grande sorpresa, sapendo in che direzione guardare, Venere è visibile molto facilmente ad occhio nudo anche in pieno giorno! Riprendendo i due canali Rosso e W47+IR-UV cut come la sessione precedente ottengo un risultato nettamente migliore, con un po' di nuvolosità sparsa qua e là. 




Nel giro di una settimana cambia tutto: il numero di contagi da coronavirus aumentano esponenzialmente, chiudono tutte le università, e mi ritrovo intrappolato a casa a Frosinone. Siccome la cosa migliore che posso fare è restare a casa e proteggere la mia sanità mentale dedicandomi ad attività che mi rilassano, il 16 marzo tento una nuova ripresa, ma utilizzando una barlow 3X. Non avevo provato prima perché ingrandire troppo con un cattivo seeing non è mai una buona idea, ma riprendendo di giorno durante questo periodo di alta pressione sono riuscito ad ottenere immagini molto più stabili. Il risultato, finalmente, ha superato le mie aspettative. Anche le giornate del 18, 19 e 20 marzo sono state buone e sono riuscito ad accumulare molti dati di buona qualità. Ho elaborato e rielaborato tutti i video diverse volte, provando tecniche e programmi diversi.

Per ora il risultato migliore l'ho ottenuto selezionando i frames migliori con PIPP (Planetary Image Pre Processor), con successivo stacking e sharpening con il software Astrosurface. Astrosurface, un po' come Registax, permette di estrarre i dettagli dalle immagini utilizzando i Wavelets (forse un giorno vi spiegherò come funzionano, per ora fate finta che si tratti di magia). Un po' meno intuitivo da usare, ma sembra funzionare meglio! 

Queste sono le immagini nel solo canale W47. Il 18 marzo c'è stato il seeing peggiore, il 19 quello migliore, come si può notare dalla quantità di dettagli visibili. 



Fondendo opportunamente i canali in UV e R ho ottenuto un'immagine a colori "naturali" del pianeta. La fusione è R=R, G = 50% R + 50% W47, B = W47. Successivamente ho sovrapposto con filtro "luce soffusa" un'immagine in bianco e nero in filtro W47, elaborata in maniera più aggressiva per mostrare le nubi.



Davvero un bel risultato, considerato che si tratta di un 20cm. Ho visto immagini peggiori fatte con telescopi con il doppio del diametro! Ovviamente non è tutto merito mio, ma del seeing che è stato davvero molto favorevole. 

La mia più grande limitazione, per ora, è il diametro dello strumento. 20 cm sono sufficienti per ottenere dettagli interessanti, ma naturalmente non vedo l'ora di poter effettuare delle riprese da Campo Catino!













8 aprile 2020

Appello ai giornalisti

Guardate cosa avete fatto. Guardate quest'immagine.


La riconoscete? E' la cometa C/2019 Atlas, quella sulla quale avete scritto articoli dicendo che sarebbe diventata luminosa quanto la Luna o che sarebbe diventata visibile di giorno.

Ogni volta che scrivete articoli sensazionalistici su una cometa, questa si disintegra divorata dall'ansia di non soddisfare le aspettative dei terrestri. E' ora di mettere fine a questo massacro.



6 aprile 2020

Venere e Pleiadi: otto anni dopo

Il Sistema Solare è pieno di moti periodici: il giorno terrestre, il mese lunare, l'anno terrestre... sono tutti periodi a cui siamo ben abituati. Esistono però ricorrenze più lunghe alle quali facciamo meno caso, perché ovviamente scandiscono di meno la nostra vita. Basti pensare al ciclo di Saros, che regola le ricorrenze delle eclissi, che abbraccia un periodo di 18 anni, o addirittura al moto di precessione terrestre, con un periodo di ben 26000 anni. Il ciclo che ci interessa in questi giorni, però, è quello tra Terra e Venere. 

Venere e Terra sono in risonanza orbitale, ovvero il rapporto tra i periodi di Terra e Venere è un numero frazionario. In particolare ogni 8 rivoluzioni terrestri Venere compie 13 rivoluzioni. Ciò vuol dire che ogni 8 anni il ciclo si ripete, e Venere si trova sempre nella stessa posizione relativamente alla Terra.


Nel caso nostro, ogni 8 anni si verifica la bellissima congiunzione tra Venere e le Pleiadi. La osservai l'ultima volta nel 2012, scrissi anche un articoletto su questo stesso blog con annesso disegno. Stavolta anziché disegnarla ho deciso di fotografarla. Montando la mia reflex sulla montatura altazimutale del Celestron C8 SE ho realizzato un gran numero di esposizioni da 20'' a f/16. Il rapporto focale così spinto è servito per formare gli spikes attorno a Venere, penalizzando però la ripresa delle parti più deboli dell'ammasso. Le tenui nebulose a riflessione che permeano l'ammasso, in ogni caso, non sarebbero mai state visibili dal cielo di Frosinone con la Luna in fase avanzata e Venere così vicino. La foto finale è una media delle immagini realizzate il 2, 3 e 4 aprile, allieate sulle stelle in modo da mostrare il movimento del pianeta. Si intuisce anche la differenza di colore tra Venere, giallo, e le calde stelle delle pleiadi, che sono invece azzurre. 

Ci vorrà un po' di pazienza prima di vedere un'altra congiunzione del genere, dato che avverrà nel 2028. Ciò non deve intristirci, perché ci saranno tanti altri eventi astronomici interessanti nel frattempo! Verso fine 2020, per esempio, potremo osservare una congiunzione strettissima tra Giove e Saturno, che li renderà osservabili in un colpo solo all'interno di un oculare a basso-medio ingrandimento.