Questione di luce e sensibilità
Se ci occupiamo di fotografia astronomica, troveremo sul mercato delle camere dedicate per imaging planetario e profondo cielo. I parametri che dovremo regolare ci obbligano ad approfondire alcuni aspetti sul funzionamento del sensore fotografico e ad affrontare terminologie che, per quanto qui limitate a una semplice introduzione, ci permetteranno di orientarci meglio nel comune linguaggio tecnico che riguarda la fotografia astronomica. Ciò che segue si applica anche ai sensori contenuti nelle normali macchine fotografiche digitali e potremmo dedurre informazioni utili a rivedere anche le nostre pratiche di paesaggistica notturna. Tuttavia molti di questi parametri non sono sempre facili da identificare su una fotocamera e la maggior parte di essi sono importanti per poter acquistare la giusta camera astronomica, ma meno per reflex e mirrorless comuni.
Colore e monocromatico
Se abbiamo spiegato a grandi linee che il sensore è in grado di rilevare differenze di luminosità misurando la quantità di elettroni collezionati da ogni fotodiodo, possiamo intuire che esso sia di base incapace di distinguere i colori. Le diverse frequenze infatti contribuiscono solo a riempire i fotodiodi senza che vengano in qualche modo identificate. Nelle comuni fotocamere a colori ricordiamo la presenza di una matrice che, specializzando i fotodiodi, permette la realizzazione di immagini a colori.
Leggi anche: Possiamo scattare fotografie notturne che siano realistiche?
Nel settore della fotografia astronomica troviamo sul mercato non solo camere a colori, ma anche camere monocromatiche, prive di qualsiasi matrice. La scelta del monocromatico tende a restituire migliori risultati e rende il sensore versatile, ma ha un costo in termini economici e di tempo.
Dimensione del pixel e del sensore
Un sensore fotografico dispone di una superficie variabile, sulla quale sono collocati un certo numero di fotodiodi. Questi singoli fotorecettori possono avere una diversa dimensione, definita come pixel size, pixel pitch o dimensione del pixel. La dimensione del singolo pixel è misurata in micron e verrà utilizzata per calcolare il campionamento nei capitoli dedicati all’imaging planetario e all’astrofotografia deep sky. La superficie complessiva del sensore e il numero di fotodiodi che ospita, determinerà una certa definizione di immagine, espressa in pixel con un rapporto base × altezza.
Un’immagine prodotta da una classica full frame con fotodiodi da 6 micron produce un file da 6.000 × 4.000 pixel. Il risultato di questa moltiplicazione, altro non indica che il numero totale di fotodiodi e quindi i megapixel del sensore (in questo caso 24 megapixel).
Full Well Capacity
Durante uno scatto i fotodiodi immagazzinano una certa carica elettrica, con un limite imposto proprio dalla loro dimensione.
La capacità massima del fotodiodo è chiamata Full Well Capacity (FWC), si misura in elettroni (e-) e stabilisce la soglia oltre la quale il pixel clippa, ovvero si satura, non potendo ospitare altri elettroni. La FWC quindi diventa un parametro del sensore che incide anche sull’estensione dinamica, ossia il range tra l’intensità più debole rilevabile a quella più alta. Se disponiamo di un sensore con pixel più grandi, sappiamo che impiegheranno più tempo prima di riempirsi e saturare, offrendoci così la possibilità di aumentare il range dinamico registrabile.
Gamma dinamica
Con questo termine si identifica il rapporto tra la minima e la massima luminosità rilevabili. Se ci è mai capitato in condizioni di fotografia diurna di ricorrere a tecniche di bracketing per riuscire a registrare tutta l’estensione dinamica della scena, allora sappiamo già che l’intervallo che un sensore può riuscire a registrare in una singola fotografia è limitato. Se abbiamo un valore massimo che dipende dalla quantità di elettroni che un fotodiodo è in grado di raccogliere, allora è comprensibile che l’area del pixel sia un elemento importante da considerare.
Profondità bit
Quando lo scatto termina, gli elettroni raccolti dal sensore vengono misurati. Il voltaggio di questo segnale è molto basso, così viene amplificato. Successivamente dovrà essere convertito in valori numerici per poter diventare un’immagine. Si otterrà così un segnale digitale leggibile e utilizzabile da un computer. Per questa trasformazione analogico/digitale il sensore possiede un convertitore (ADC, Analog to Digital Converter). Se il bit rappresenta l’unità di misura dell’informazione informatica, allora il convertitore sarà capace di trasformare il segnale con tanti più valori rispetto alla sua profondità di bit. Facciamo un confronto prendendo in esame lo stesso sensore.
Un convertitore da 8 bit è in grado di rappresentare 256 differenti valori, da 0 (nero) a 255 (bianco). Significa che assocerà al numero 255 il massimo quantitativo di elettroni collezionabili da un fotodiodo. Un convertitore 12 bit, invece, è capace di rappresentare 4.096 valori (da 0 a 4.095). Associando il massimo valore dello stesso fotodiodo al numero 4.095, l’immagine sarà convertita con un numero maggiore di livelli e quindi avrà più precisione.
Un sensore con ADC 14 bit raggiungerà i 16.384 livelli, mentre un 16 bit ben 65.536.
Efficienza quantica
Un altro parametro importante è legato alla sensibilità del sensore e alla sua capacità di utilizzare o meno tutti i fotoni che riceve durante lo scatto. Il sensore fotografico, infatti, non è una macchina perfetta e non è in grado di usare tutta la luce che lo raggiunge durante il tempo di esposizione. L’efficienza quantica (QE) è un valore fisso che caratterizza un certo sensore e che cambia da modello a modello. È un valore espresso in percentuale, che ci indica quanta luce verrà utilizzata rispetto al totale ricevuto. I moderni sensori fotografici, che troviamo sia nelle mirrorless sia nelle camere astronomiche, raggiungono valori di efficienza molto elevati, spesso superiori all’80%.
Il rumore
Stabilite alcune delle proprietà del sensore fotografico, è il momento di parlare di rumore. Siamo in grado di riconoscere gli effetti del rumore sulle immagini? Quell’interferenza che spesso viene ancora chiamata grana, anche se il termine è obsoleto, poiché richiama la grana della pellicola analogica, ma che spesso ci aiuta a capire di cosa stiamo parlando.
Il rumore nelle immagini digitali può essere classificato come additivo o moltiplicativo. Questa distinzione è utile per comprendere come questi disturbi influenzino l’immagine finale. Nella fotografia astronomica, dove precisione e sensibilità sono fondamentali, capire la natura del rumore può fare la differenza nella qualità finale.
Nel rumore additivo includiamo generalmente il rumore termico, di lettura e fotonico. Questi disturbi si sommano indipendentemente dall’intensità del segnale e si dicono infatti non-correlati. In quello moltiplicativo, ossia correlato al segnale, troviamo per esempio il rumore di guadagno e quello di quantizzazione non uniforme. Queste fonti di disturbo hanno un’intensità che varia in funzione del segnale.
Affrontiamo alcuni di questi termini per capire se almeno in parte il fotografo possa intervenire per mitigarli.
Il rumore fotonico e il rumore termico
Il rumore fotonico è causato dalla natura quantistica della luce, dove le fluttuazioni nel numero di fotoni che colpiscono i fotodiodi segue la distribuzione di Poisson. Detto anche shot noise, è proporzionale alla radice quadrata del numero di fotoni ricevuti. Aumentare quindi il numero di fotoni ricevuti ci aiuta ad alzare il rapporto segnale/rumore della fotografia. Questa condizione ci porterebbe a pensare che l’esposizione più lunga possibile sia sempre un vantaggio.
Nella fotografia astronomica, però, incontriamo anche un altro tipo di disturbo che varia con la temperatura operativa del sensore. Il calore prodotto dal sensore all’interno della fotocamera genera un segnale indesiderato, la dark current, che aggiunge alle nostre immagini un disturbo chiamato rumore termico. Perciò, nelle immagini a lunga posa, il sensore restando attivo a lungo genera una maggiore quantità di rumore termico. Ovviamente la temperatura ambientale incide sul fenomeno. Noteremo per esempio che i tempi di scatto massimi in estate saranno più brevi rispetto a quelli che potremo impostare in inverno, al fine di limitare gli effetti indesiderati sulle immagini.
Per mitigare questa fonte di disturbo nella fotografia astronomica, si può ricorrere all’utilizzo di camere raffreddate, di solito con dispositivi Peltier, capaci di ridurre drasticamente la quantità di rumore termico prodotta.
Il rumore di lettura e il background noise
Esistono fonti di disturbo introdotte dal sensore durante la lettura del segnale raccolto, anche se il progresso tecnologico sta migliorando negli anni la componentistica, riducendo questo fattore. Il rumore di lettura è un parametro misurato in elettroni (e-) che incide sulla qualità delle immagini e che interessa soprattutto le riprese in condizioni di bassa luminosità. Anche se è un disturbo additivo infatti, in casi di segnali molto deboli il peso del rumore di lettura sul segnale totale potrebbe renderlo maggiormente visibile. Sotto questa componente di disturbo, ai fini della semplificazione, includiamo anche il rumore di quantizzazione, derivato dal processo di conversione dell’ADC e quello di lettura generato da amplificatori e convertitori.
Con il termine di background noise ci riferiamo invece a fotoni ricevuti durante lo scatto da una fonte luminosa ambientale indesiderata, come la Luna o le luci delle città vicine. In questo caso, pur trattandosi di fotoni, la fonte risulta per noi una componente di disturbo. Il background noise è gestibile dal fotografo scegliendo notti senza Luna, spostandosi sotto cieli meno inquinati e attrezzandosi con specifici filtri selettivi, progettati per limitare l’ingresso dell’inquinamento luminoso prodotto artificialmente dall’illuminazione pubblica.
Questo articolo richiama contenuti da Fotografia astronomica.
Immagine di apertura originale dell’autore..