venerdì, gennaio 01, 2021

La stella di Betlemme, la congiunzione e la distanza di Giove e Saturno

Il 21 dicembre 2020 si è raggiunta la minima distanza angolare in cielo tra Giove e Saturno dal 1623, in una delle congiunzioni più spettacolari che abbia visto fin'ora. Vedere entrambi i pianeti così vicini nello stesso oculare è stata una grande emozione, così come impressionarli sul mio piccolo sensore CMOS ottenendo questa immagine:

Andiamo per gradi, dato che ho molte cose in testa che voglio raccontarvi. Partiamo dal titolo: che c'entra la stella di Betlemme? Si avvicina il Natale e con esso tornano in mente tutti i racconti della tradizione cristiana, compreso quello di questa stella che con la sua luce ha guidato i Magi verso il luogo in cui nacque Gesù. Cosa poteva mai essere questa luce prodigiosa visibile per lungo tempo nel cielo? Nel corso dei secoli si susseguirono diverse interpretazioni. Una convinzione ancora molto radicata nel pensiero comune è che si trattasse di una cometa apparsa improvvisamente in cielo in quel periodo. Probabilmente non fu così, ma almeno sappiamo il perché la "cometa di Natale" sia così gettonata: tutta colpa di Giotto. Nella scena di natività che dipinse nella cappella degli Scrovegni si vede chiaramente un astro chiomato sorvolare la stalla che ospita Gesù. Il motivo per cui Giotto inserì una cometa nella natività è probabilmente dovuto al fatto che in quegli anni passò vicino alla Terra la 1/P Halley, e lo lasciò sicuramente sbalordito, tanto da immortalarla nella sua opera. 

La rappresentazione della cometa come stella di betlemme non ha molti riscontri storici: gli astronomi cinesi o arabi hanno sempre tenuto traccia di eventi come comete, nove o supernove, ma non hanno visto niente negli anni vicini all'anno 0. Il primo a formulare un'ipotesi diversa fu Keplero in persona: osservò con stupore la congiunzione tra Giove e Saturno del 1623 e calcolando a ritroso la posizione dei due pianeti scoprì che una simile congiunzione era avvenuta nel 7 avanti cristo. Per la verità, un raro gioco di meccanica celeste fece sì che tale congiunzione avvenisse ben tre volte, dato che si sovrapposero i moti retrogradi di entrambi i giganti gassosi, mantenendoli vicini in cielo per molti mesi. Ciò non è abbastanza per risolvere il mistero, ma ci fornisce sicuramente un'idea diversa dalla "stella cometa" tanto menzionata.

Torniamo adesso all'anno 2020 e osserviamo meglio l'immagine che avete visto poco sopra. Per scattarla ho realizzato quattro video nei filtri IR742, R, G e B. Il primo video ha fornito le informazioni di luminanza, gli ultimi tre i colori. Ho ripreso tutti i video utilizzando l'intero sensore della telecamera, perché l'idea di avere entrambi i pianeti nello stesso campo mi piaceva molto. Tuttavia non avevo considerato un piccolo dettaglio: si muovono. Per questa ragione succedevano due cose: i software di stacking impazzivano non sapendo su quale allineare le immagini e la sovrapposizione dei canali trasformava i pianeti in graziosi arlecchini colorati. Per ottenere i colori quindi ho elaborato due volte tutti e tre i filmati allineando una volta su Giove e una su Saturno, allineando poi manualmente il tutto. Un discreto lavoraccio.

Infine arriviamo ad una parte un po' più tecnica, che conterrà anche della terrificante matematica al suo interno. Non mi offendo se saltate direttamente all'ultimo paragrafo, ovviamente! Prendiamo questa immagine che ho scattato la sera del 20 (giusto per variare, tra l'altro il cielo era pure meno velato rispetto al 21):

Appare evidente come Saturno sia nettamente più debole rispetto a Giove, cosa facilmente verificabile anche ad occhio nudo tra l'altro. Appena ho visto questa immagine mi è balenata un'idea in testa: si potrà sfruttare questa informazione per calcolare la distanza tra Giove e Saturno? Risposta breve: no. Si può però calcolare il rapporto tra le loro distanze dalla Terra, che è comunque un'informazione interessante. In tutte le rappresentazioni dell'universo tolemaico, per esempio, Saturno non si trova affatto al doppio della distanza da noi!

Per fare questa misura dobbiamo però fare un'assunzione: supporremo che Giove e Saturno riflettano la luce solare allo stesso modo e nella stessa quantità, ovvero hanno lo stesso albedo. Un'assunzione piuttosto forte, ma forse persino un terrapiattaro potrebbe ipotizzare che due oggetti che appaiono simili in cielo siano fisicamente molto simili tra loro.

Tramite una paginetta di calcoli (che i più esigenti possono trovare qui sotto) è possibile dimostrare che il rapporto tra le brillanze superficiali dei pianeti è uguale al rapporto  dei quadrati delle distanze tra Sole e pianeta

Ma quale blogger vi ricopia i conti su LaTeX?
(Grazie a Francesco per aver riguardato i conti!)

La brillanza superficiale è un numeretto che ci dice, in sostanza, quanta luce emette ogni pezzettino di pianeta. Tale numeretto è molto interessante perché non dipende dalla distanza a cui si trova un pianeta e si può calcolare in un colpo solo avendo solamente una foto come quella di sopra. Possiamo infatti misurare il flusso sommando tutti i pixel che compongono il disco del pianeta (sottraendo il valore del fondo cielo, misurato con un "anello" attorno all'apertura fotometrica) e stimare il diametro angolare misurando quanti pixel sono larghi. A questo punto la brillanza è semplicemente il rapporto tra il flusso del pianeta e il suo angolo solido (praticamente un'area angolare). Nell'immagine qui sotto potete trovare il flusso misurato, il diametro angolare e le aperture fotometriche usate.

                
Per assicurarmi di raccogliere tutto il segnale del disco di Giove ho un po' "abbondato" con il raggio dell'apertura fotometrica. Con Saturno invece è stato più complicato, perché un'apertura troppo grande prendeva anche il segnale degli anelli, falsando la misura. 

Per quanto riguarda il raggio dei pianeti, invece, ho dovuto trovare un modo per misurarlo con la migliore precisione possibile: per farlo ho utilizzato AstroImageJ. Ho estratto un profilo di luminosità su entrambi gli assi principali dei pianeti (essendo questi ellissoidali e non perfettamente sferici) e ho preso come raggio il punto in cui il segnale del pianeta diventava inferiore a quello del fondo cielo. Per rendere più evidente questa transizione ho applicato dei wavelet come si fa solitamente in fotografia planetaria. 

I "solchi" a destra e a sinistra del disco sono dovuti al
tipico bordino nero lasciato dal processing con i wavelet.

Presi questi valori posso fare i conti e ottenere il rapporto tra la distanza di Giove e la distanza di Saturno:

Così parlò Python

Non male, Il risultato ottenuto si discosta da quello reale dell'2.4%! Noterete però che l'errore relativo sul rapporto misurato è inferiore a questo 2.4%, vale infatti circa 0.7%. In altre parole, gli errori su flusso e raggio del pianeta, che sono le grandezze da noi misurate, non sono sufficientemente grandi da giustificare un tale discostamento rispetto al valore vero. Questo perché abbiamo fatto tante semplificazioni nei nostri conti: abbiamo considerato i due pianeti con lo stesso albedo (e non è vero), oltre al fatto che nella misura di flusso di Saturno abbiamo incluso anche un pezzo di anello, che ha sicuramente inquinato la misura, avendo un albedo molto diverso dal pianeta. 

A questo punto avrei potuto prendere una tabella degli albedo di Giove e Saturno online e ripetere il procedimento senza considerarli uguali... più facile a dirsi che a farsi. L'albedo dipende fortemente da molti fattori: la stagione in corso sul pianeta, la situazione atmosferica, la fase, oltre a fattori strumentali come il range di frequenze in cui li sto riprendendo e l'efficienza del sensore. Per uno scarto così piccolo, forse, non vale la pena rovinarsi il capodanno. Teniamoci per buona questa misura precisa, ma non troppo, di quanto è profondo il nostro Sistema Solare.

Mi rendo conto di essere stato un po' tecnico in quest'ultima parte, ma volevo dimostrare, almeno agli astrofili più smanettoni, come tramite una semplice foto con un telescopio amatoriale fosse possibile ottenere interessanti informazioni astronomiche. Un po' di sana astrofisica da balcone, se preferite chiamarla così. Con questo articolo lasciamo alle spalle un 2020 terribile sotto molti aspetti, ma che dal punto di vista astronomico è stato molto ricco. Vediamo cosa succederà nel 2021: io ovviamente non lo so. So solo che il cielo e l'astronomia non si fermano mai. 





martedì, maggio 05, 2020

Ma quindi come si fotografano i pianeti?

Immaginate di aver appena comprato un telescopio, per esempio un 20 cm, e che vogliate scattare una foto a Venere. Siccome siete delle persone previdenti avete comprato l'anello T2 necessario a connettere la vostra reflex al telescopio. Ciò che ottenete, però, è un piccolo budino tremolante e sfocato, senza dettagli. Come si fa quindi a ottenere quella bella falcetta definita che si vede su Stellarium?

Il problema principale è il seeing. La luce proveniente dallo spazio deve attraversare l'atmosfera terrestre prima di essere raccolta dai nostri sensori fotografici o dai nostri occhi. Se questa fosse statica ed omogenea non avremmo grossi problemi, ma ovviamente non è questo il caso reale. L'atmosfera è un continuo divenire di bolle d'aria calde e fredde, moti convettivi, venti, turbolenze e quant'altro. Tutti questi fenomeni modificano il cosiddetto indice di rifrazione dell'atmosfera: esattamente come nelle lenti, una variazione di indice di rifrazione provoca una deviazione del raggio luminoso. Ciò produce una deformazione nelle immagini, che può essere più o meno disastrosa per le osservazioni. Ci sono due modi per eliminare questo disturbo, entrambi molto al di fuori della portata di un astrofilo. il primo è andare nello spazio, come il telescopio Hubble, fuggendo dall'atmosfera. Il secondo metodo è detto ottica adattiva, che consiste nel deformare gli specchi migliaia di volte al secondo in modo da compensare la deformazione indotta dall'atmosfera.

Effetti del seeing su una mia ripresa lunare. Le oscillazioni più
ampie sono causate da folate di vento che muovono il telescopio.
Siccome non disponiamo di milioni di euro dobbiamo arrangiarci in un altro modo. L'idea è molto semplice: se l'atmosfera varia casualmente dovrà pur esserci un momento di calma in cui l'immagine non è molto disturbata! Riprendendo moltissimi fotogrammi al secondo si sfruttano questi brevi momenti di calma per ottenere delle immagini nitide, in una tecnica chiamata lucky imaging, che tra l'altro è sfruttata anche nei grandi osservatori non ancora dotati di ottiche adattive. 

Il segreto per riprendere ottime immagini planetarie è quindi riprendere molti fotogrammi al secondo, con pose sufficientemente brevi (pochi millisecondi) in modo da "congelare" il seeing e riuscire a filtrare dei frame in cui l'atmosfera è immobile. La differenza tra un buon frame e un pessimo frame è enorme! Quando ci si trova al telescopio, quindi, usando software come SharpCap o Firecapture (il primo ha la versione di prova gratuita, il secondo è totalmente gratuito) si deve riprendere un video della durata di qualche minuto in modo da catturare più immagini possibile.



Fare un video e selezionare una singola immagine buona, però, non è il miglior metodo per ottenere una foto planetaria. E' necessaria molta più elaborazione. Il primo passo è mediare molti fotogrammi, chiamato in gergo stacking, per ridurre il rumore della telecamera. Per fare ciò è necessario automatizzare la scrematura dei fotogrammi: un video tipico contiene infatti migliaia o decine di migliaia di frames! Ispezionarli a mano è un grosso attentato alla sanità mentale (anche se ci sono persone che lo fanno). Vengono in nostro soccorso i programmi dedicati. Software come Registax, AutoStakkert3, PIPP, Astrosurface (tutti gratuiti) vengono in nostro soccorso utilizzando degli algoritmi che valutano in maniera affidabile la qualità dei frames. Nel software AutoStakkert3, per esempio, basta inserire il proprio filmato e cliccare sul tasto "analyse", dopo avergli specificato se stiamo riprendendo un pianeta (quindi un oggetto piccolo su sfondo nero) o un dettaglio superficiale del Sole o della Luna. 

Ad analisi completata salterà fuori un grafico che ci permette di valutare la qualità dei frames ripresi. 


La curva grigia ci mostra come varia la qualità dei frames durante il video, quindi possiamo vedere i momenti di calma e i momenti di atmosfera turbolenta. La curva verde invece ci fa vedere quanti sono i frames buoni. Più la curva verde si trova nella parte superiore del grafico, migliore è la qualità della ripresa e maggiore sarà la quantità di frames "buoni" che varrà la pena mediare. Di norma è raro mediare più del 10% dei frames catturati, a meno che la serata non sia proprio perfetta. Solitamente tronco i frames da processare nel momento in cui la qualità scende sotto il 60-70%, corrispondente al 10% dei frames circa. In Autostakkert si può impostare il numero o la percentuale di frames da mediare nei rettangolini rossi/verdi in alto a destra. 



La scritta "stack", però, è ancora grigia! Manca ancora un passaggio importante: il posizionamento degli align points. Il seeing può avere una componente a frequenza più bassa che anziché sfocare l'immagine tende a deformarla, pur lasciando visibili i dettagli fini. Ciò che fanno diversi software è dividere l'immagine in tanti tasselli che di frame in frame vengono allineati come in un puzzle, in modo da ottenere un'immagine finale in cui ogni singolo dettaglio è correttamente allineato. 
Un esempio di come Venere viene deformato dal
seeing pur restando relativamente "a fuoco"
Gli align points vanno posizionati in punti "strategici" dell'immagine, per permettere al software di orientarsi ed essere in grado di completare il puzzle di cui sopra frame dopo frame. Autostakkert permette di scegliere le dimensioni degli align points. Questi non vanno impostati né troppo piccoli, né troppo grandi. Se fossero troppo piccoli Autostakkert non riuscirebbe a capire a quale parte dell'immagine appartengono, mentre se fossero troppo grandi l'immagine si deformerebbe all'interno dello stesso align point, rendendo inutile questo procedimento. 

Stesso venere di prima, ma con gli Align Points


Impostate le giuste dimensioni di align points è possibile posizionarli manualmente oppure automaticamente cliccando su "Place AP grid". Funziona quasi sempre, ma in alcune mie riprese ho ottenuto risultati migliori posizionandoli manualmente, quindi vale la pena fare un po' di tentativi.  AS3 permette anche di posizionare align points di dimensioni variabili, cosa che ho trovato molto utile nelle riprese lunari. Posizionata la griglia di align points, finalmente, possiamo premere su stack! Ci vorrà qualche minuto, e questo tempo dipenderà ovviamente dal numero di frames sommati e la risoluzione del video.


L'immagine in formato .tiff ottenuta sarà, almeno a prima vista, un po' sfocata. Per estrarre i dettagli presenti nell'immagine bisogna infatti usare Registax 6, in particolare la funzione Wavelets. I wavelet sono un arcano concetto matematico applicato all'elaborazione delle immagini. L'idea è "affettare" l'immagine in diversi livelli, divisi in base a quanto sono grandi i dettagli. Dopodiché si aumenta il contrasto (ovvero schiarisco le luci e scurisco le ombre) solo sul livello di dettagli che ci interessa. Nella schermata di Registax infatti si può vedere ogni wavelet (da 1 a 6, solitamente) che scala di dettagli va a modificare. Non c'è una regola scritta su come usare i wavelets: dipende molto dall'oggetto che si sta fotografando e dalla qualità dell'immagine. Solo una cosa è certa: i wavelets non fanno miracoli! La ripresa di partenza deve essere a fuoco e il seeing decente per ottenere buoni risultati. 

La schermata dei wavelet di Registax. Spostando lo slider si può decidere
quanto aumentare la nitidezza su un certo livello di dettaglio. 
Di seguito ecco gli effetti dei wavelets sui crateri Plato e Tycho. Il miglioramento è enorme!

Plato (wavelet applicati sulla parte destra)


Tycho (wavelet applicati sulla parte destra)

Naturalmente è necessaria un po' di pratica per ottenere buoni risultati: negli ultimi due mesi, dall'inizio del lock-down, ho accumulato circa 20 serate di riprese lunari. Ho quindi avuto modo di giocare parecchio con le impostazioni sia in fase di ripresa che di elaborazione. Prima o poi vi dirò qualche trucchetto, ma quelli sono più specifici a seconda dell'oggetto ripreso, quindi stonano un po' su un post introduttivo come questo.

Ammetto di essere stato un po' tecnico, ma spero di avervi dato almeno un'idea di come funziona il mondo delle riprese planetarie ad alta risoluzione. Non sono il massimo esperto mondiale in questo campo, dato che lo sto approfondendo seriamente da nemmeno due mesi, ma spero vivamente di poter incuriosire qualcuno e spingerlo a comprare una telecamerina planetaria! 


sabato, aprile 18, 2020

Guida di sopravvivenza ai satelliti Starlink

Ho osservato proprio ieri sera un passaggio dell'ultimo "trenino" di satelliti Starlink. Per quanto rappresentino uno spettacolo suggestivo, gli astrofili di tutto il mondo tremano al pensiero di un futuro non troppo remoto in cui il cielo sarà riempito da migliaia di satelliti, che rovineranno inesorabilmente le nostre immagini astronomiche. Ho sperimentato un po' sui metodi di elaborazione delle immagini per cercare di ridurre al minimo questo problema, e mi è sembrato il caso di scrivere una breve guida di sopravvivenza. 



Quando noi facciamo una foto astronomica stiamo in realtà facendo una misura della luminosità del cielo: ogni pixel, quindi, è una misura della luminosità di quel quadratino di cielo che sta inquadrando. Esattamente come in laboratorio di fisica, quindi, possiamo migliorare la precisione della nostra misura (ovvero ridurre il rumore) effettuando delle misure ripetute. Questo è il motivo per cui, normalmente, scattiamo molte foto per poi eseguire uno "stacking". Utilizzando un dubbio parallelismo tra la fotografia astronomica e la misura di un tavolino, quindi, cerchiamo di capire come funzionano i vari algoritmi di stacking e di trovare quello migliore per le nostre esigenze. 

La prima cosa che viene in mente, che è anche l'algoritmo di stacking più utilizzato, è fare la media delle misure. Questo sistema funziona bene finché tutte le misure sono più o meno simili tra loro.

Le cose si complicano, però, in presenza di misure molto diverse dalle altre, come nel caso degli Starlink. I satelliti sono infatti decine o centinaia di volte più luminosi del fondo cielo. E' come misurare la lunghezza di un tavolo utilizzando un metro e ottenere le seguenti misure: 

74.2 cm, 74.3 cm, 73.9 cm, 74.0 cm, 74.1 cm, 81938.16 cm. 

Fare la media non è una buona idea, perché il nostro tavolo sarebbe lungo 164 metri! Traducendo questo in fotografia astronomica, il satellite lascia una strisciata ben visibile. In questo caso abbiamo una misura molto più grande del valore medio e cinque misure molto più piccole del valore medio. Provando a fare lo stack medio di 7 immagini, infatti, si ottiene questo:


Un modo più intelligente di trattare queste misure è considerare la mediana. Se prima avevamo cinque misure molto più piccole della media e una misura molto più grande, adesso scegliamo un valore posizionato in modo da avere lo stesso numero di misure più grandi e più piccole: tre da una parte, tre dall'altra. Il risultato, sempre applicato al nostro tavolo, è 74.2 cm. E' leggermente sbilanciato verso verso le misure più grandi che abbiamo ottenuto, ma non è disastroso come prima. Applicando lo stesso ragionamento alle foto di cui sopra otteniamo un risultato nettamente migliore.


Le tracce sono quasi scomparse! Siamo sulla buona strada, ma si può fare di più. Se fossimo stati in laboratorio di fisica a misurare il tavolo e avessimo ottenuto una lunghezza di 819 metri avremmo sicuramente buttato la misura, considerandola evidentemente sballata. Nel caso delle immagini astronomiche, però, non sempre conviene buttare uno scatto, specialmente quando si lavora con pose lunghe, perché possono comunque contenere molto segnale utile. Ciò che facciamo, quindi, è escludere soltanto i pixel interessati dal passaggio del satellite, trasferendo in un algoritmo il processo mentale che ci ha fatto dire "ok questa misura è decisamente sbagliata, eliminiamola". 

L'ultimo metodo si chiama kappa-sigma clipping. Ciò che fa è eliminare i dati troppo lontani dalla media, utilizzando come "distanza massima" la deviazione standard dei dati, un numeretto che misura quanto i dati sono distribuiti intorno alla media. Sempre considerando le nostre misure del tavolo, la deviazione standard sarebbe circa 300 m, a causa della presenza della misura sballata. Se riprendiamo la media di prima (164 metri) notiamo che le misure "giuste" sono distanti meno di 300 m dalla media (si dice entro "un sigma"), mentre la misura sballata è ampiamente più distante. Ciò vuol dire che se impostiamo kappa = 1, ovvero eliminiamo tutte le misure che si trovano al di fuori di 1-sigma, restiamo soltanto con le misure giuste! Effettuando la media non su tutte le misure, ma solo su quelle buone, otteniamo un valore attendibile. Il risultato, infatti, è ancora migliore. 



Salvare le nostre fotografie amatoriali, però, non elimina il problema Starlink. Avere così tanti puntini luminosi in cielo potrebbe rendere difficili le misure da Terra nel visibile, specialmente per gli strumenti a largo campo come il Large Synoptic Survey Telescope. Il danno maggiore, però, si avrà in radioastronomia: se la luminosità dei satelliti può essere abbassata utilizzando vernici assorbenti, non c'è molto da fare sulla loro emissione radio, dato che sono satelliti per telecomunicazioni. Purtroppo le leggi attuali sono piuttosto vaghe su chi ha diritto di autorizzare o meno privati a lanciare megacostellazioni di satelliti. Per esempio SpaceX è stata autorizzata dagli stati uniti, ma gli starlink sono e saranno sulla testa di tutto il mondo...







giovedì, aprile 09, 2020

Alla scoperta dell'astrofotografia venusiana

In questo periodo singolare quanto difficile di quarantena non ho potuto far altro che riabbracciare l'astronomia balconara, per un paio di ragioni: in primo luogo, per ovvi motivi sanitari, non posso andare all'osservatorio astronomico. In secondo luogo, dopo anni passati a parassitare le telecamere dell'osservatorio, ho investito qualche soldo in una camera CMOS ASI 178 MM con annessi filtri colorati RGB, per inziare ad approfondire la fotografia planetaria ad alta risoluzione. Ovviamente in questi giorni ho avuto molto, molto tempo da dedicare a riprese ed elaborazione dei dati potendo quindi, tramite un po' di sano "trial and error", giungere a delle prime conclusioni riguardo il modo migliore (almeno a mio parere) di riprendere ed elaborare Venere.

Le nubi di Venere sono visibili nell'Ultravioletto vicino o nell'infrarosso, quindi per sperare di riprenderle è necessario un filtro che trasmetta queste zone dello spettro elettromagnetico. Un filtro passa-UV costa parecchio ed è un po' difficile procurarselo di questi tempi, quindi mi sono dovuto inventare qualcosa di diverso. Da un kit di filtri per l'osservazione visuale ho rimediato un filtro Wratten #47, che trasmette più o meno tra i 250 e i 450 nanometri, quindi a cavallo del vicino ultravioletto. Il problema di un filtro a vetro colorato come questo è che trasmette anche l'infrarosso. Per evitare di "sporcare" i dati in ultravioletto, quindi, l'ho affiancato ad un filtro IR-UV cut della baader che blocca l'infrarosso, pur lasciando passare la luce ultravioletta oltre i 300nm. 


Partiamo dal principio: il 15 marzo, felice come un bambino, apro la valigetta contenente la fiammante ASI 178. Catapulto il fidato C8 in balcone e inizio a riprendere. Facendo infatti un video nel canale Rosso e un video nel canale W47+IR-UV cut, fondendoli poi come canali in Photoshop, sono riuscito ad ottenere un discreto primo risultato, con forse qualche accenno di nuvolosità del pianeta. 



Il 28 febbraio tento un approccio leggermente diverso: provo a riprendere Venere con il Sole sopra l'orizzonte. Così facendo riprendo Venere ad un'altezza sull'orizzonte sensibilmente maggiore rispetto alle solite riprese al tramonto. L'unico problema è... Come puntarlo? Per fortuna viene in mio soccorso il GoTo della montatura Celestron SE: faccio l'allineamento Solar System sul Sole, puntandolo con il telescopio chiuso (non ho ancora acquistato un filtro solare per il C8), per poi fargli puntare automaticamente Venere. Con mia grande sorpresa, sapendo in che direzione guardare, Venere è visibile molto facilmente ad occhio nudo anche in pieno giorno! Riprendendo i due canali Rosso e W47+IR-UV cut come la sessione precedente ottengo un risultato nettamente migliore, con un po' di nuvolosità sparsa qua e là. 


Nel giro di una settimana cambia tutto: il numero di contagi da coronavirus aumentano esponenzialmente, chiudono tutte le università, e mi ritrovo intrappolato a casa a Frosinone. Siccome la cosa migliore che posso fare è restare a casa e proteggere la mia sanità mentale dedicandomi ad attività che mi rilassano, il 16 marzo tento una nuova ripresa, ma utilizzando una barlow 3X. Non avevo provato prima perché ingrandire troppo con un cattivo seeing non è mai una buona idea, ma riprendendo di giorno durante questo periodo di alta pressione sono riuscito ad ottenere immagini molto più stabili. Il risultato, finalmente, ha superato le mie aspettative. Anche le giornate del 18, 19 e 20 marzo sono state buone e sono riuscito ad accumulare molti dati di buona qualità. Ho elaborato e rielaborato tutti i video diverse volte, provando tecniche e programmi diversi.

Per ora il risultato migliore l'ho ottenuto selezionando i frames migliori con PIPP (Planetary Image Pre Processor), con successivo stacking e sharpening con il software Astrosurface. Astrosurface, un po' come Registax, permette di estrarre i dettagli dalle immagini utilizzando i Wavelets (forse un giorno vi spiegherò come funzionano, per ora fate finta che si tratti di magia). Un po' meno intuitivo da usare, ma sembra funzionare meglio! 

Queste sono le immagini nel solo canale W47. Il 18 marzo c'è stato il seeing peggiore, il 19 quello migliore, come si può notare dalla quantità di dettagli visibili. 



Fondendo opportunamente i canali in UV e R ho ottenuto un'immagine a colori "naturali" del pianeta. La fusione è R=R, G = 50% R + 50% W47, B = W47. Successivamente ho sovrapposto con filtro "luce soffusa" un'immagine in bianco e nero in filtro W47, elaborata in maniera più aggressiva per mostrare le nubi.



Davvero un bel risultato, considerato che si tratta di un 20cm. Ho visto immagini peggiori fatte con telescopi con il doppio del diametro! Ovviamente non è tutto merito mio, ma del seeing che è stato davvero molto favorevole. 

La mia più grande limitazione, per ora, è il diametro dello strumento. 20 cm sono sufficienti per ottenere dettagli interessanti, ma naturalmente non vedo l'ora di poter effettuare delle riprese da Campo Catino!













mercoledì, aprile 08, 2020

Appello ai giornalisti

Guardate cosa avete fatto. Guardate quest'immagine.


La riconoscete? E' la cometa C/2019 Atlas, quella sulla quale avete scritto articoli dicendo che sarebbe diventata luminosa quanto la Luna o che sarebbe diventata visibile di giorno.

Ogni volta che scrivete articoli sensazionalistici su una cometa, questa si disintegra divorata dall'ansia di non soddisfare le aspettative dei terrestri. E' ora di mettere fine a questo massacro.