CCD vs CMOS i colori a confronto

E’ tra gli argomenti più dibattuti di sempre in ambito fotografico tanto da aver scatenato vere e proprie “guerre” di pensiero. Ma come stanno realmente le cose, quale sensore produce i “colori” migliori tra il CCD e il Cmos?

Per molti appassionati il vincitore è senza dubbio il sensore CCD e tale assunto ha guadagnato nel tempo lo stato di assioma diventando una sorta di verità fattuale evidente e incontestabile, stante una completa mancanza di una argomentazione tecnica valida e una disamina sperimentale.

Per iniziare correttamente l’analisi dobbiamo correggere la frase incriminata da un punto di vista lessicale. Definire “migliori” presuppone una standard qualitativo, ma questo deriva semplicemente dall’osservazione delle fotografie, come uscite dalle fotocamere o dai rispettivi raw converter per cui il termine corretto dovrebbe essere “piacevoli”.

Molti sostengono quindi che le foto scattate con fotocamere a tecnologia CCD offrano colori più piacevoli e attribuiscono il merito alla differenza tecnologica con i più recenti CMOS. Ma tale differenza è realmente attribuibile alla diversità tra un CCD e un CMOS? In breve, no.

Il compito base di un sensore

Entrambe le tecnologie CCD (Charge Coupled Device) e CMOS (Complementary Metal-Oxide Semiconductor) si fondano sul principio fisico fotoelettrico in cui un fotone incidente su un atomo di un metallo o semimetallo provoca l’espulsione di un elettrone.

Entrambe le tecnologie impiegano il silicio (Si) opportunamente raffinato e drogato per essere un semiconduttore adatto alla costruzione di sensori.

In pratica si tratta di convertire i fotoni incidenti in elettroni che possono essere raccolti per formare una carica elettrica proporzionale all’intensità dell’esposizione.

Ogni sensore basato su questo effetto fisico si comporta in modo idealmente lineare, dove al raddoppio dei fotoni incidenti corrisponde un raddoppio della carica elettrica raccolta che successivamente viene convertita in un valore digitale dal circuito A/D. Un sensore così costruito, nella sua forma più semplice, è sensibile però oltre lo spettro della luce visibile dai sensi umani.

Qui una curva tipica, che come vediamo si estende ben oltre il canonico intervallo 380 – 730nm


Inoltre non c’è discriminante cromatica, quello che otteniamo è solo un valore dell’intensità della
carica elettrica.

Se il nostro scopo e riprodurre la realtà come la vediamo tramite i nostri sensi è necessario limitare l’intervallo di risposta del sensore introducendo dei filtri NUV (near ultraviolet) e NIR (near infrared). Al di sotto dei quali deve essere presente una matrice di filtri colore, tipicamente in schema Bayer:

Spectral Sensitivity Functions (SSFs)

Adesso che il sensore è stato limitato nel campo del visibile e dotato di una matrice colore, abbiamo tre curve distinte RGB. Idealmente queste curve dovrebbero essere sovrapponibili a quelle dell’osservatore standard CIE:

In questo caso vediamo le curve dell’osservatore standard CIE 1931 2°, il primo proposto dalla Commission Internationale de l’Eclairage appunto nel 1931. Se le curve del sensore corrispondessero, allora la fotocamera vedrebbe esattamente come noi, rendendo superflua la fase di caratterizzazione. Tuttavia non è possibile ottenere delle SSF identiche all’osservatore standard.

Un esempio di SSF reali di una fotocamera:

Ne consegue che una fotocamera non restituisce, da sola, dei colori realistici. I dati grezzi presenti nel RAW necessitano di una caratterizzazione, il ruolo svolto dal profilo fotocamera.

Ogni sensore, sia esso CCD o CMOS, ha le sue specifiche curve SSF, che sono il risultato della combinazione di tutti gli strati: i filtri NIR e NUV, la matrice colore e la sensibilità nativa del Si che a sua volta dipende dal processo produttivo e dal drogaggio subito.

La variabilità tra sensore e sensore può essere lieve o molto significativa, ma già a questo stadio è praticamente impossibile attribuirla alla differenza tra CCD o CMOS. Può un sensore CCD avere delle SSF maggiormente efficienti di un CMOS e offrire un segnale grezzo migliore contenendo più informazioni sui colori?

Questa domanda è molto più pertinente di quella usualmente proposta nei forum, ma la risposta non è semplice e soprattutto non può essere univoca. Possono esserci dei sensori CCD con SSF più efficienti di alcuni CMOS, ma anche il contrario. Ma cosa rende una SSF migliore di un’altra?

La capacità di separazione segnale

Come abbiamo visto nessuna fotocamera può prescindere dalla fase di caratterizzazione perché nessuna fotocamera vede esattamente come noi; ovviamente una rosa rimane rossa, l’erba verde e il cielo blu, ma non sono i colori precisi.

In effetti nessun produttore progetta i propri sensori cercando di avvicinare la resa grezza del colore
a quella della realtà; si preferisce perseguire la massima capacità di separazione possibile.

Questa capacità può essere spiegata come la sensibilità del sensore a registrare la differenza tra due stimoli spettrali che produrrebbero due terne XYZ molto vicine nello spazio del tristimolo definito dall’osservatore standard.

In sostanza la capacità di distinguere due oggetti di colore estremamente simile per i sensi umani; questo consente di avere le informazioni grezze necessarie nel raw per poter estrapolare la giusta
riproduzione della realtà.

Un sensore efficiente cerca di massimizzare questa capacità su una vasta area del locus umano e per una varietà di illuminanti, di cui (solitamente) la luce solare è il principale.

Il nostro test

Dopo queste premesse giungiamo alla parte più interessante: confrontare in modo sperimentale due fotocamere, una CCD e una CMOS.

Abbiamo scelto la Nikon D200 e la Nikon D700, rispettivamente CCD e CMOS, perché dello stresso produttore e sufficientemente vicine nel tempo. In questo modo cerchiamo di isolare quanto più possibile la variabile CCD vs CMOS. Tutti i test comparativi sono condotti sui modelli spettrali delle fotocamere per escludere ogni perturbazione possibile.

Curve SSF

Per prima cosa confrontiamo le SSF delle due macchine su cui si basa il test

Si notano somiglianze di progetto, ma anche significative differenze.

Rendering di un target SG virtuale

Esponendo virtualmente l’immagine multi spettrale di un ColorChecker SG sulle rispettive SSF
otteniamo per D65 (Daylight 6504K):

Sotto questo illuminante le fotocamere offrono un output molto simile con differenze minime.
Il sigma si attesta a 0.50 con un errore massimo di 2,38 DeltaE 2000.
Per StdA (Tungsten Bulb 2856K):

Anche sotto la luce artificiale del tungsteno l’output grezzo delle fotocamere è simile, con un sigma
di 0.62 e un errore massimo di 2,74 DeltaE 2000.

Performance di separazione

Per analizzare le capacità di separazione di segnale delle due fotocamere ci avvaliamo di un target spettrale sintetico che copre quasi tutto il locus umano; viene ignorata solo una piccola sezione vicino alla linea dei Purple in quanto il segnale di qualunque fotocamera sarebbe troppo basso.


Sono più di diecimila campioni spettrali unici di classe Reflectance e relativi quindi all’illuminante
che scegliamo. Qui in D50:

L’heat-map in diagramma u’v’ rappresenta l’intensità di variazione dell’output in codifica 16bit per ogni campione con variazione di 1 dCh (Delta Chromaticity), da zero (nessuna capacità di
separazione) a 300 (massima capacità di separazione).

Nel grafico sono presenti come riferimento il gamut di AdobeRGB (triangolo rosso) e il Pointer gamut (perimetro irregolare). Il Pointer gamut racchiude tutti gli oggetti reali osservabili in riflessione.

Come possiamo osservare le performance sono davvero molto simili e del tutto equivalenti sul piano pratico. Appare evidente la somiglianza progettuale dei due sensori, che pur appartenendo a due
tecnologie diverse mostrano nel test un risultato sovrapponibile per l’illuminante D50. Per StdA otteniamo:

Sotto la luce di Tungsteno si notano maggiori differenze, ma sarebbe difficile valutare quale dei due sensori fa meglio. Ancora una volta le performance sono sovrapponibili e le differenze all’atto
pratico sono praticamente nulle.

Possiamo quindi concludere che la differenza tra CCD e CMOS non comporta sostanziali modifiche all’output. Sono altre le variabili che comportano una differenza di resa nelle fotografie osservate tra due fotocamere, siano esse CCD e CMOS oppure appartenenti alla stessa tecnologia.

Test finale

Per ulteriore prova delle nostre conclusioni adotteremo una immagine multispettrale di una scena reale misurata in laboratorio e mostreremo i risultati della ricostruzione scene-referred con la profilazione Cobalt. La scena è definita da 400 a 700nm con un intervallo di 10nm. Calcolo dell’immagine sotto D65 per osservatore standard 1931 2°:

Rendering D200 con profilo per D65:

Rendering D700 con profilo per D65:

Calcolo dell’immagine sotto StdA per osservatore standard 1931 2°:

Rendering D200 con profilo per StdA:

Rendering D700 con profilo per StdA:

Conclusioni finali

L’incidenza della variabile CCD vs CMOS non è quantificabile quando si pone in esame progetti qualitativamente paritari. Le differenze sulla capacità di separazione di segnale dipendono dalla qualità globale del sensore, di cui la scelta della tecnologia CCD e CMOS è solo uno dei moltissimi tasselli.

Le fotocamere che abbiamo preso in esame hanno prestazioni hardware simili per quanto riguarda il discernimento del colore e le differenze sono rilevabili solo in condizioni di laboratorio. Nella normale esperienza d’uso la differenza tra il look di una immagine CCD e quella CMOS sono da

  • L’anno di commercializzazione
  • La caratterizzazione del sensore
  • La tecnologia del profilo fotocamera
  • La color correction inserita nel profilo stesso

Come abbiamo già visto nel tutorial a proposito della profilazione Adobe la caratterizzazione dei dati grezzi del raw fa la parte del leone nel generare differenze tra una fotocamera e l’altra.

Ma se, come evidenziato nel test finale, le fotocamere sono correttamente caratterizzate e profilate con la medesima accuratezza e tecnologia, allora sarà praticamente impossibile avvertire differenze nella ricostruzione scene-referred della scena fotografata.

Prosegui leggendo: I profili Cobalt

Aiutaci a mantenere il blog libero dalle pubblicità, dona anche tu! Grazie.

About Enrico Scaramelli

The creator of the project Cobalt. Former IT assistant and Net specialist, thanks to his passion for photography he started many years ago his studies about colour science and colour profiling for digital cameras. Now his knowledge of colour profiling is what makes this project unique and the best has yet to come!

Check Also

Grafilite2 è una luce professionale?

Per illuminare una stampa ci vuole una luce di qualità che possieda determinate caratteristiche. Fino …

Calibrare o Profilare

Perchè tanta confusione? Calibrare ha un significato ben preciso nella gestione del colore ma questo …

3 comments

  1. Apprezzo lo sforzo ma ora chi lo spiega agli amanti del ccd? Dovrebbero ribattere con dei test, impossibile?

  2. Per anni ci hanno detto che il ccd era il migliore e ora mi tocca leggere che era tutta una favola?

  3. Ciao, se ho compreso correttamente è sufficiente avere un profilo colore della fotocamera tipo x-rite passport?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

GDPR Cookie Consent with Real Cookie Banner