Sensori Elettronici e Rumore

Sensori Fotografici

Cos'è un sensore

CCD o CMOS che siano, tutti i sensori si basano sulla capacità che alcuni materiali hanno di reagire all'esposizione alla luce, in particolare alla caratteristiche che hanno alcuni semiconduttori di far muovere cariche elettriche se colpite da fotoni. Senza addentrarsi in dettagli di fisica e di microelettronica (gli esami dell'università sono ormai lontani), possiamo semplificare la cosa dicendo che un sensore fotografico non è altro che una matrice di punti in grado di leggere la luce e restituire, per ciascun punto, un segnale elettrico direttamente proporzionale all'intensità della luce da cui è colpito; tale relazione di proporzionalità è lineare (o perlomeno assumibile lineare), cosa questa molto importante per quanto si vedrà più avanti.

CCD Chip

Visione "felina"

Una cosa che forse non tutti sanno è che i sensori, presi a sé stanti, non sono sensibili ai colori. La cosa può sorprendere, perché giurereste che la vostra fotocamera digitale tira fuori immagini a colori, e nella maggior parte dei casi i colori sono anche fedeli alla realtà. Eppure è così: i fotodiodi che costituiscono la matrice del sensore sentono solo l'arrivo dei fotoni, non la loro lunghezza d'onda, per cui il segnale che restituiscono è pura luminosità. Un po' come gli occhi dei gatti, le cui retine sono povere di coni, che presiedono alla percezione dei colori e dei contrasti, e ricche di bastoncelli, che invece sono molto sensibili alle variazioni di luminosità, anche piccole. Anche negli occhi umani i coni sono molti meno dei bastoncelli (in un rapporto di 1 a 50), ma nell'occhio del gatto questo rapporto è molto più basso.
Nei sensori, in pratica, i coni non ci sono affatto (o meglio nei sensori CCD o CMOS; il Foveon, che prende il nome proprio dalla fovea una zona della retina priva di bastoncelli, è in grado di “leggere” i colori).

Ricostruzione del colore

Come si riesce a risalire alle informazioni di colori, che come sappiamo nelle immagini digitali fanno riferimento ai tre valori RGB (Red Green Blue)? Il sensore va ingannato; o meglio, vanno ingannati i singoli fotodiodi. Davanti a tutti i sensori CCD e CMOS (e anche Super CCD), c'è il cosiddetto filtro di Bayer, che non è altro che una matrice di filtri colorati che ha un ben determinato pattern spazialmente periodico; questa matrice ha lo stesso numero di elementi del sensore, ciascuno dei quali è perfettamente allineato ad un fotodiodo del sensore. Un pattern di Bayer potrebbe essere fatto così:

Filtro di Bayer

In pratica ogni diodo legge la luminosità che passa attraverso un filtro colorato, del colore assegnato dalla posizione del pattern di Bayer; poiché i tre colori primari hanno lunghezze d'onda ben distinte, sono facilmente filtrabili (il rosso filtra molto bene blu e verde, ecc...), in pratica ogni fotodiodo legge il valore di luminosità di un solo colore.

Filtro di Bayer

Quindi in buona sostanza, il primo elemento ha solo informazioni sul rosso, il secondo solo sul verde, il terzo solo sul blu, il quarto solo sul verde, ecc... Come si può ben vedere il numero di elementi associati al verde è molto più alto (praticamente il doppio) di quelli associati al blu o al rosso. Questo perché l'occhio umano è particolarmente sensibile alla lunghezza d'onda del verde. Di conseguenza il canale migliore di un'immagine proveniente da un sensore è il verde, avendo meno punti in cui tale colore deve essere interpolato.

Pattern

La ricostruzione dei colori mancanti da associare in ciascun elemento sensibile (o meglio, dei livelli di riferimento per i tre componenti RGB) viene fatta per interpolazione coi valori dello stesso colore adiacenti, letti da altri elementi sensibili; esistono molti algoritmi di interpolazione dei colori, se proprio vi interessano qui ne trovate un certo numero, anche se in trattazione molto accademica. Questa operazione prende il nome di demosaicizzazione. L'immagine che segue dà una semplificazione (persino eccessiva) del processo di interpolazione: in effetti di norma questo processo non è una semplice media, ma involve una elaborazione di più valori adiacenti, nemmeno in forma strettamente regolare (alcuni algoritmi, detti adattivi, seguono dei "percorsi" per garantire una migliore qualità nelle transizioni ad alto contrasto).
Schema di interpolazione
Alla fine dei calcoli, ciascuno elemento della matrice corrispondente al sensore potrà essere caratterizzato dai tre valori Red Green Blue, solo uno dei quali, però, sarà stato letto dall'elemento sensibile di quella posizione; gli altri saranno ottenuti mediante interpolazione. Se non si effettuasse la demosaicizzazione, l'immagine risultante, in toni di grigio, sarebbe qualcosa simile a questa:

 

Immagine senza demosaicizzazione

Questa è l'uscita del programma Dcraw con lo switch -d, che dà in output esattamente i valori letti dal sensore, senza l'operazione di demosaicizzazione: l'ingrandimento del ritaglio è di 4 volte rispetto alle dimensioni originali, per cui sono molto ben visibili i pixel ed il loro diverso livello di grigio dovuto al diverso filtraggio della matrice Bayer.
Altri sensori sfruttano principi totalmente differenti per separazione dei segnali RGB provenienti dall’ottica:

Separazione a prismi

Uno fra tutti è il Foveon, che è il nome commerciale di una tipologia di sensore CMOS che permette per ogni pixel di catturare le informazioni relative alle tre componenti fondamentali della luce (rosso verde e blu) come fanno le tradizionali pellicole a colori. Questa tecnologia si differenzia sostanzialmente dalle altre che invece hanno bisogno di tre pixel specializzati nella lettura delle tre componenti. La prima tecnologia permette di creare una immagine senza bisogno di elaborazioni digitali mentre la tecnologia tradizionale, basata sullo schema Bayer (dal nome del ricercatore della Kodak che lo ha messo a punto) detto anche a mosaico, richiede una interpolazione per ottenere l'immagine reale. La misura di un sensore Foveon va quindi divisa per 3 infatti un sensore da 9Mp sono in realtà 3 milioni di punti reali mentre un normale sensore a mosaico da 3Mp sono in realtà 3 milioni di sensori interpolati digitalmente per ottenere l'informazione di colore su ogni punto.

Foveon

Nel Foveon gli strati di transistor sono tre e ognuno cattura uno dei tre colori primari.

Bayer - Foveon


Nikon dal canto suo invece, ha adottato uno schema a specchi separatori che, attraversati in serie dal fascio luminoso, separano le tre componenti fondamentali e le indirizzano nei rispettivi sensori.

Specchi separatori

Il vero salto di qualità fotografica (come nel settore professionale) si avrebbe eliminando del tutto o minimizzando questo meccanismo di interpolazione. E, come è facile prevedere, se non si intende effettuare più esposizioni con differenti filtri, è necessario ricorrere a 2 o a 3 sensori CCD utilizzati insieme. In figura è mostrato uno schema esemplificativo di una fotocamera digitale basata su due sensori CCD nonché la soluzione "no limits" di 3 sensori CCD, uno per componente primaria di sintesi additiva. E' evidente che nell'ultimo caso (3 CCD) non è necessario compiere alcuna operazione di interpolazione software di natura cromatica, in quanto di ogni pixel della nostra immagine conosciamo esattamente ognuna delle tre componenti cromatiche che identificano il rispettivo colore.

2 e 3 CCD

Questa è una soluzione che in campo video (dove i sensori sono decisamente meno risoluti) viene già utilizzata da tempo; la tecnica delle telecamere con 3CCD è da tempo approdata anche ai dispositivi consumer.

Occhi analogici e occhi digitali

C'è un altro problema: i nostri occhi, come le pellicole, hanno una sensibilità che varia con l'intensità della luce: in pratica sono tanto più sensibili a differenze di luminosità quanto più le scene osservate sono poco illuminate, mentre tendono ad non rilevare differenze anche notevoli quando la scena osservata è molto luminosa: questo è un comportamento tipicamente logaritmico. Questa risposta non lineare dei fotorecettori della retina permette la percezione di un vastissimo spettro di livelli di segnale. I sensori, invece, percepiscono i livelli di luminosità in maniera proporzionale all'energia che ricevono: tanto più è forte la luce che ricevono, tanto più forte sarà il segnale: in pratica, il sensore ha un comportamento lineare: ancora più in dettaglio, i sensori praticamente contano i fotoni che arrivano suoi fotorecettori e danno un segnale elettrico in uscita proporzionale a questo numero; il segnale d'uscita quindi è proporzionale all'esposizione.

Ciò significa che se questo segnale elettrico, a valle dei convertitori A/D, venisse codificato con 12 bit per rappresentare 4096 livelli, il livello 2048 rappresenterebbe la metà dei fotoni raccolti dal livello 4096. Il problema, però, è che gli occhi non percepiscono la differenza tra il livello 2048 e il livello 4096 come il doppio.

Decodifica

Guardando l'istogramma dei segnali catturati dal sensore dopo la codifica in 12 bit, troveremmo che il grafico è fortemente concentrato sulla sinistra, cioè sui livelli più bassi, mentre sui livelli più alti, essendo i livelli molto distribuiti, l'istogramma risulterà molto basso. Questo problema viene solitamente risolto applicando una curva correttiva, solitamente di tipo esponenziale, di questa forma:

Livello dei pixel=esposizione(1/gamma)

Il gamma ha un valore pari a 2.2 per lo spazio colore sRGB ed in pratica è la variabile che lega la luminanza dei pixel al segnale elettrico.

Grafico correzione Gamma

Questo fatto ha una implicazione non esattamente trascurabile, per eventuali elaborazioni fotografiche: questa distribuzione di luci e ombre, così come viene letta dal sensore, fa sì che dei 4096 livelli disponibili con 12 bit (ad esempio), la metà di essi serve a rappresentare i toni che "accendono" il solo 12 bit, quindi le alte luci, per un totale di 2048 livelli; i rimanenti 2048 vengono "spartiti" per tutti gli altri livelli; ciò significa che per un numero di fotoni pari alla metà, saranno disponibili un numero di livelli pari alla metà. Questo implica un maggiore errore di quantizzazione nelle ombre, ed è questo che rende le ombre "rumorose" se si cerca di "aprirle", in senso fotografico. Peraltro, è a tutti noto che le esposizioni sulle fotocamere digitali è bene prenderle sulle alte luci; così facendo, si raccolgono tutte le informazioni sulle luci, certo, ma si comprimono nei pochi livelli riservati a loro, le ombre.

 

Rumore fotografico

Introduzione

Il rumore digitale, detto anche rumore elettrico, rumore termico, noise o semplicemente rumore, non ha nulla a che vedere con i suoni. In fotografia il suo effetto finale è visibile sulle foto, soprattutto in quelle scattate a ISO elevati e particolarmente nelle aree più scure dell’immagine. A occhio si presenta come una variazione semi-casuale, ma limitata, del colore dei pixel. In altre parole il rumore è dato da un’immagine sbiadita formata da colori casuali che variano da punto a punto e che si sovrappone all’immagine originale determinandone un forte calo di qualità. Nelle reflex digitali più costose il rumore è limitato ma nelle compatte una foto notturna a 800 ISO può essere completamente inutilizzabile, a meno ché non si ricorra in sede di post produzione a dei programmi specifici per la riduzione del rumore come in questo caso:


Anche le foto sviluppate dalla pellicola presentano rumore, ma in maniera ridotta rispetto alle digitali, inoltre il loro rumore è di colore neutro, non cambia cioè il colore e la saturazione del puntino/pixel a cui va a sovrapporsi.

Cause del rumore

Le cause del rumore sono variabili. Il rumore infatti non è altro che un errore variabile nel tempo ed è presente in qualsiasi fenomeno fisico che si verifichi al mondo. A voler essere precisi il rumore esiste solo in quanto noi tentiamo di prevedere i fenomeni fisici e chiamiamo il nostro errore di modello rumore. Il rumore è dovuto cioè a fenomeni fisici complessi e difficilmente modellabili (o semplicemente non previsti) che fanno si che il risultato di un esperimento sia leggermente diverso da quanto previsto. A differenza della maggior parte degli errori il rumore varia però in maniera rapidissima e anche sapendo che esiste è quasi impossibile da eliminare a priori. Teoricamente però potrebbe essere calcolato e di conseguenza rimosso da un immagine o da un segnale, ma la cosa è di fatto quasi impossibile (soprattutto senza perdere informazioni utili e deteriorando la qualità del segnale/immagine).

Rumore elettrico

Il rumore elettrico è dovuto al calore e al moto molecolare da esso innescato. Esso infatti non si verifica solo a temperature prossime allo zero assoluto (-273,15 °C) ed aumenta di intensità all’aumentare della temperatura, tuttavia data l’estrema difficoltà del mantenere un dispositivo elettrico a queste temperature bassissime, non rimane altra scelta che cercare di ridurre il rumore al minimo anche senza eliminarlo totalmente.

Il rumore è un normalissimo segnale elettrico prodotto da ogni dispositivo elettronico che si somma al segnale “pulito” prodotto in uscita dal sensore “sporcandolo”. Il segnale e il rumore sono prodotti nello stesso punto ed è quindi impossibile eliminare il rumore, che tuttavia può aumentare sommandosi al rumore prodotto da altri apparati vicini. Il rumore si presenta quindi come un errore variabile nel tempo con ritmo elevatissimo a valore medio nullo che viene campionato e convertito in digitale insieme al segnale puro a cui è indissolubilmente legato.


Tipi di rumore

Esistono diversi tipi di rumore. Nel campo della fisica acustica dal punto di vista di un segnale analogico registrato durante un certo intervallo di tempo, il rumore può essere definito come bianco o "colorato" (rosa, rosso, marrone, ecc.) a seconda del suo spettro caratteristico (lo spettro misura le frequenze che un segnale copre e l’energia del segnale per ciascuna di esse, ogni "colore" di rumore presenta uno spettro con caratteristiche peculiari).
Intendendo sempre il rumore come un disturbo che si sovrappone ad un segnale "perfetto" (acustico o di luminosità che sia), la distinzione che interessa un fotografo è di tutt’altro tipo e riguarda ovviamente più le caratteristiche che il rumore ha nell’immagine finale. A questo fine è possibile distinguere il rumore in due componenti principali: rumore "fisso" e rumore casuale. Il primo tipo è dovuto a difetti costruttivi che sono causa di quello che potremmo definire un "pattern statico" di rumore, costituito dai cosiddetti hot pixel (quelli con una luminosità più elevata), i cosiddetti stuck pixel (quelli con uno o due colori che non emettono segnale) o dead pixel (quelli sempre neri); questi possono essere facilmente eliminati con tecniche tipo il dark frame subtraction o simili. Questi difetti sono generalmente dipendenti dal processo costruttivo del sensore più che da altri fattori ed ogni sensore ha i suoi.
Il rumore casuale invece è il rumore vero e proprio prodotto dalle componenti elettroniche che trattano il segnale del sensore quando questo è ancora in forma analogica. Le fotocamere digitali presentano entrambe queste difettosità.
A questo di deve aggiungere ancora una cosa: sempre come conseguenza del processo di costruzione del sensore la risposta dei vari pixel alla luce che li colpisce non è lineare, ma a parità di luce incidente il segnale ottenuto in risposta non sarà mai sempre uguale; questo sebbene non sia un rumore vero e proprio genera sempre un disturbo nell'immagine prodotta.

Il rumore nelle foto digitali

Nelle fotografie il problema maggiore legato al rumore digitale è la sua visibilità nelle zone scure che aumenta incredibilmente se si tenta di aumentare la luminosità dell’immagine; non solo, il rumore è fastidioso anche in tutte quelle zone della fotografia caratterizzata da sfumature morbide di colori molto simili tra loro (da non confondere in questo caso però con difetti dovuti ai problemi legati alla "posterizzazione"). Se ad esempio in un'immagine è stata sottoesposta e si tenta di correggerne la luminosità, questo evidenzierà in maniera netta il rumore, soprattutto nelle zone più scure del fotogramma. Il problema aumenta ulteriormente se si scatta a sensibilità elevate (ISO 800 o superiore), in questi casi infatti il segnale “pulito” è di bassissima intensità ed il rumore, segnale elettrico anch’esso debole, diventa chiaramente visibile. Nelle macchine fotografiche compatte il rumore ad ISO elevati, ad esempio in una foto notturna, è qualcosa di intollerabile che può arrivare a rendere la foto inutilizzabile, tanto più se il sensore della compatta è di piccole dimensioni (1/2.7”).

Ridurre il rumore (dark frame subtraction ed altre tecniche)

Al fine di ridurre notevolmente il rumore è possibile in primis eliminare la sua parte fissa. Se scattate diverse foto notturne a ISO 800 disattivando ogni algoritmo di riduzione del rumore, noterete che si formano molti pixel di un colore vivace (rosso, blu, verde, ecc.). Se passate da una foto all’altra noterete che una grande parte dei pixel rimane nella stessa posizione da una foto all’altra. Questo è appunto il rumore dovuto ai pixel "venuti male". Per eliminarlo le fotocamere utilizzano la tecnica del “dark frame subtraction”, scattano cioè una seconda foto identica alla prima ma con l’otturatore completamente chiuso (non entra luce). L’immagine, denominata “dark frame”, è quindi determinata esclusivamente dal rumore. In seguito sottraggono la seconda immagine alla prima ottenendo un’immagine "depurata" dagli errori sistemati dei pixel.

La tecnica potrebbe sembrare perfetta, almeno per eliminare la maggior parte del rumore, e si può eseguire manualmente anche se la fotocamera non la supporta in automatico (basta bloccare le impostazioni relative all’esposizione e scattare una seconda foto con il copri obiettivo inserito), ma alla prova pratica i risultati non sono perfetti (il rumore sottratto risulta essere troppo forte nelle zone chiare). Per ottenere risultati perfetti occorrerebbero infatti 256 foto scattate a livelli crescenti di luminosità e non solo quella relativa al buio più completo!
Tuttavia alcune variazioni sul metodo permettono di ottenere risultati migliori. Ad esempio si possono usare le maschere per limitare la sottrazione solo alle aree più scure o ricavare una mappa degli hot pixel (dal dark frame) per sostituire il loro colore con quello dei pixel più vicini (nella foto). Ancora si possono usare i livelli di Adobe Photoshop (o altri programmi compatibili) tentando la soluzione migliore di opacità e tipo di fusione (multiply, darken, ecc.).

Esistono inoltre diversi programmi e/o plugin commerciali o freeware (es. NeatImage) che permettono di ridurre la componente casuale del rumore basandosi su sofisticati algoritmi statistici di trattamento dell'immagine; i livelli di sofisticazione di questi programmi sono aumentati di molto negli ultimi anni ed in alcuni casi i risultati sono notevoli. Tuttavia se il rumore è elevato, si deve mettere in conto una discreta perdita di qualità dei dettagli dell’immagine, ma il rumore viene effettivamente ridotto di moltissimo.

C'è un altra tecnica di riduzione del rumore, denominata Flat Field; fondamentalmente questa tecnica si basa sulla realizzazione di uno scatto ad una superficie grigia illuminata nel modo più uniforme possibile. La fotografia di una tale superficie dovrebbe dare luogo ad una risposta perfettamente uniforme di tutti i pixel, mentre all'atto pratico la risposta che si ottiene non è uniforme. Questo non risiede solamente nella risposta dei vari pixel che non è perfettamente lineare, ma anche all'ottica; la luce che arriva al sensore infatti è ovviamente influenzata da tutto quello che attraversa, cioè da tutte le superfici di ogni lente dell'obbiettivo. L'esame dello scatto al flat field ci fornisce informazioni sulle "perturbazioni" a cui le varie zone del fotogramma sono soggette. Per ottenere una calibrazione che sia migliore possibile bisognerebbe fare una serie di Dark Frame ed una serie di Flat field, uno per ogni valore di ISO secondo cui vogliamo regolare il sensore.
E' chiaro che queste tecniche richiedono tempo (tanto) ed una preparazione molto accurata; sono davvero poco pratiche per la maggior parte delle foto, anche se rimangono l'unica strada in alcuni tipi di fotografia ad esempio quella astronomica, nei cui scatti, le stelle che sono puntini luminosi in un fondo quasi nero, verrebbero scambiate per rumore dagli algoritmi di trattamento dell'immagine, distruggendo la fotografia stessa.

Ridurre il rumore al momento dello scatto

Al fine di ridurre al minimo il rumore si deve evitare scaldare la macchina fotografica ed ovviamente nei limiti del possibile di usare ISO elevati. Usando un cavalletto, un diaframma aperto ed un tempo di esposizione molto lungo è possibile scattare foto notturne anche con ISO 100.
Inoltre se si accende la macchina fotografica solo un istante prima di scattare si evita di scaldare il sensore e si ottengono immagini molto più pulite. Di notte, con una compatta questa accortezza diventa un vero e proprio must!
Tuttavia se volete scattare a sensibilità elevate l’unica soluzione è quella di usare la pellicola (ed in questo caso a valori elevati di sensibilità sorgono i problemi legati alla grana della pellicola) oppure una costosa Reflex semiprofessionale. Solo una macchina fotografica con un sensore di dimensioni generose permette questo genere di scatto…

Stessa porzione di fotografia a diverse sensibilità

Dimensione del sensore e rumore

Perché i sensori più grandi sono meno rumorosi?
La risposta a questa domanda è ancora una volta insita nelle due cause principali del rumore stesso:
Difetti costruttivi del sensore
Superficie effettiva del singolo pixel
Ogni singolo pixel occupa una piccola porzione della superficie del sensore, porzione che è data dal rapporto tra l'effettiva superficie totale del sensore ed il numero di pixel complessivi di quest'ultimo; più la superficie del singolo pixel è piccola, più un difetto costruttivo localizzato ha influenza sulla capacità complessiva del pixel stesso di funzionare correttamente.
Ogni pixel produce un segnale elettrico che è proporzionale alla luce incidente la sua superficie; a parità di luce incidente è chiaro che più questa superficie è piccola, più debole sarà il segnale elettrico in uscita. Questo debole segnale necessita di amplificazione che dovrà essere tanto più elevata quanto più debole è il segnale emesso dai vari pixel. La quantità di rumore introdotto dall'amplificazione sarà quindi inversamente proporzionale alla superficie del pixel stesso; questo è anche il motivo per cui il rumore aumenta ad ISO elevati; la regolazione su alti valori di sensibilità del sensore va ad influenzare infatti proprio quanto la macchina amplifica il segnale in uscita dal sensore stesso.

Quindi in buona sostanza l'influenza dei vari aspetti è riassumibile negli schemi qui sotto:

Il rumore diminuisce quindi al crescere delle dimensioni del sensore (a parità di risoluzione), mentre aumenta sia all’aumentare della risoluzione, cioè all'aumentare del numero di pixel (a parità di dimensione del sensore), che all'aumento della sensibilità (cioè aumentando il numero di ISO) a cui il sensore stesso viene regolato.

Share

Share!

FacebookGoogle Bookmarks