stato dell’arte della fotografia...

20
1. INTRODUZIONE I l campo dell’ICT è sempre più pervasivo estendendosi ormai ai più svariati settori. In particolare, la fotografia digitale, grazie al- le tecniche ICT, ha realizzato forti innovazioni quasi completamente soppiantando l’acqui- sizione di immagini con la tradizionale pelli- cola. Questo risultato è stato possibile grazie ai sostanziali avanzamenti compiuti dai sen- sori microelettronici per l’acquisizione d’im- magini e nel processamento dei relativi se- gnali elettrici con tecniche digitali. Inoltre, l’introduzione sempre più spinta di sensori a basso costo sta permettendo di dotare una larga serie di dispositivi personali di comuni- cazione ed eleborazione (cellulari, palmari, computer portatili ecc.) di dispositivi per la cattura di immagini (fisse ed in movimento). Contrariamente a quanto si potrebbe pensare, la ripresa di un’immagine in movimento pone meno problemi di criticità di un’immagine fis- sa perché il movimento riduce la sensibilità del- l’occhio al dettaglio spaziale ed alle componenti di rumore ad alta frequenza. Pertanto, mentre nella fase iniziale gli apparecchi per la fotogra- fia digitale sono risultati una derivazione della tecnologia degli apparecchi “camcorder” (mo- dificati per la cattura di immagini fisse), oggi in- vece - con una qualità digitale ormai paragona- bile a quella della migliore fotografia a pellico- la - alcuni sviluppi tecnologici per la cattura d’im- magini fisse influenzano gli apparecchi per la ri- presa d’immagini in movimento. Scopo del presente articolo è pertanto quello MONDO DIGITALE • n.4 - dicembre 2007 La fotografia digitale, grazie alle tecniche ICT, ha fatto in questi ultimi anni enormi progressi e ha ormai soppiantato l’acquisizione di immagini con la classica pellicola fotografica. Un ruolo primario in questa evoluzione è sta- to giocato dai sensori per l’acquisizione di immagini e dagli importanti svi- luppi dell’elaborazione numerica dei segnali (DSP) nella fotocamera. Sco- po del presente articolo è quello di fornire una panoramica delle basi teori- che della rappresentazione dei colori e delle conseguenti tecnologie che sono alla base della fotografia digitale nella fase di cattura delle immagini. Massimo Mancuso Stefano Tubaro Guido Vannucchi STATO DELL’ARTE DELLA FOTOGRAFIA DIGITALE BASI TEORICHE E SVILUPPI TECNOLOGICI 20 Nota - Il presente articolo rielabora e sintetizza alcuni degli argomenti trattati in una Giornata di Studio (dal titolo: “Le frontiere della fotografia digitale ed il mondo ICT “) organizzata nell’Aprile del 2007 dall’Asso- ciazione AICT della Federazione AEIT in collaborazione con il Politecnico di Milano. Si ringraziano tutti i par- tecipanti ed in particolare il dr. Alfredo Roma per alcuni spunti delle conclusioni. Si ringrazia anche l’Ing. Paolo Talone della FUB che, attraverso un’accurata rilettura del testo, ha dato utili suggerimenti di revisione ed integrazione.

Upload: ngoliem

Post on 24-Feb-2019

223 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: STATO DELL’ARTE DELLA FOTOGRAFIA DIGITALEarchivio-mondodigitale.aicanet.net/Rivista/07_numero_4/Vannucchi p... · La fotografia digitale, grazie alle tecniche ICT, ha fatto in questi

1. INTRODUZIONE

I l campo dell’ICT è sempre più pervasivoestendendosi ormai ai più svariati settori.

In particolare, la fotografia digitale, grazie al-le tecniche ICT, ha realizzato forti innovazioniquasi completamente soppiantando l’acqui-sizione di immagini con la tradizionale pelli-cola. Questo risultato è stato possibile grazieai sostanziali avanzamenti compiuti dai sen-sori microelettronici per l’acquisizione d’im-magini e nel processamento dei relativi se-gnali elettrici con tecniche digitali. Inoltre,l’introduzione sempre più spinta di sensori abasso costo sta permettendo di dotare unalarga serie di dispositivi personali di comuni-cazione ed eleborazione (cellulari, palmari,computer portatili ecc.) di dispositivi per la

cattura di immagini (fisse ed in movimento).Contrariamente a quanto si potrebbe pensare,la ripresa di un’immagine in movimento ponemeno problemi di criticità di un’immagine fis-sa perché il movimento riduce la sensibilità del-l’occhio al dettaglio spaziale ed alle componentidi rumore ad alta frequenza. Pertanto, mentrenella fase iniziale gli apparecchi per la fotogra-fia digitale sono risultati una derivazione dellatecnologia degli apparecchi “camcorder” (mo-dificati per la cattura di immagini fisse), oggi in-vece - con una qualità digitale ormai paragona-bile a quella della migliore fotografia a pellico-la - alcuni sviluppi tecnologici per la cattura d’im-magini fisse influenzano gli apparecchi per la ri-presa d’immagini in movimento.Scopo del presente articolo è pertanto quello

M O N D O D I G I T A L E • n . 4 - d i c e m b r e 2 0 0 7

La fotografia digitale, grazie alle tecniche ICT, ha fatto in questi ultimi anni

enormi progressi e ha ormai soppiantato l’acquisizione di immagini con la

classica pellicola fotografica. Un ruolo primario in questa evoluzione è sta-

to giocato dai sensori per l’acquisizione di immagini e dagli importanti svi-

luppi dell’elaborazione numerica dei segnali (DSP) nella fotocamera. Sco-

po del presente articolo è quello di fornire una panoramica delle basi teori-

che della rappresentazione dei colori e delle conseguenti tecnologie che

sono alla base della fotografia digitale nella fase di cattura delle immagini.

Massimo MancusoStefano Tubaro

Guido Vannucchi

STATO DELL’ARTE DELLA FOTOGRAFIA DIGITALEBASI TEORICHE E SVILUPPITECNOLOGICI

20

Nota - Il presente articolo rielabora e sintetizza alcuni degli argomenti trattati in una Giornata di Studio (daltitolo: “Le frontiere della fotografia digitale ed il mondo ICT “) organizzata nell’Aprile del 2007 dall’Asso-ciazione AICT della Federazione AEIT in collaborazione con il Politecnico di Milano. Si ringraziano tutti i par-tecipanti ed in particolare il dr. Alfredo Roma per alcuni spunti delle conclusioni.Si ringrazia anche l’Ing. Paolo Talone della FUB che, attraverso un’accurata rilettura del testo, ha dato utilisuggerimenti di revisione ed integrazione.

Page 2: STATO DELL’ARTE DELLA FOTOGRAFIA DIGITALEarchivio-mondodigitale.aicanet.net/Rivista/07_numero_4/Vannucchi p... · La fotografia digitale, grazie alle tecniche ICT, ha fatto in questi

di dare una panoramica tecnica delle basi teo-riche della rappresentazione dei colori e delletecnologie alla base della fotografia digitale al-l’atto della fase di cattura (acquisizione).La rappresentazione del colore è sempre stataun elemento essenziale della fotografia. La lu-ce, ossia la radiazione elettromagnetica cheriusciamo a percepire con i nostri occhi è carat-terizzata da lunghezze d’onda dello spettroelettrromagnetico comprese fra 400 e 700 nm.La sensazione percepita dal nostro senso dellavista sembrerebbe dover essere legata ad unnumero elevato di parametri che descrivono lospettro della luce che colpisce l’apparato visi-vo umano: dalla nostra esperienza quotidianasappiamo invece che, attraverso tre soli para-metri (per esempio le ampiezze di tre coloriprimari della luce oppure le informazioni di in-tensità, tinta e saturazione), è possibile dareun’ottima descrizione (in termini percettivi) diuna larga porzione delle “luci” osservate dal-l’occhio umano che fisiologicamente ha unacaratterizzazione “tricanale” che si adatta be-ne ad eccitazioni di tipo “tristimolo”.Questa rappresentazione a tre valori delle sen-sazioni di colore viene spesso data per sconta-ta e l’argomento viene spesso affrontato con su-perficialità, senza approfondire in alcun modola teoria e le esperienze fatte per avvalorare que-sto approccio. A tale scopo è infatti essenzialepartire dai concetti fondamentali necessari alladescrizione del sistema visivo umano e della re-lativa percezione del colore, le cui caratteristi-che e limiti sono essenziali per lo sviluppo diadeguate tecnologie di cattura delle immagini.Si è ritenuto pertanto di approfondire nella pri-ma parte di quest’articolo tale importante te-matica come necessaria introduzione alle im-portanti conseguenze pratiche che ne derivanonel campo della fotografia digitale.Gli altri aspetti importanti che verranno trattatinella seconda parte dell’articolo sono la tecno-logia dei sensori ed il processamento dell’im-magine dopo la cattura, passando in rassegnai sensori CCD e CMOS e le più importanti tra letecniche di elaborazione dell’immagine imme-diatamente successive alla fase di scatto.Ulteriori aspetti della fotografia digitale cheesulano tuttavia dalle finalità del presente ar-ticolo sono quelle della stampa, della proie-zione, della trasmissione a distanza delle im-magini catturate e, particolarmente importan-

ti, quelle delle operazioni di elaborazione e ri-tocco delle immagini acquisite. Quest’ultime,a differenza del caso d’impiego di pellicola fo-tografica, sono facilmente alla portata di tuttigli amanti della fotografia e ciò costituisceuna grande potenzialità aggiuntiva.Si può anzi affermare che, a differenza del pas-sato, la fotografia digitale offre, al giorno d’og-gi, due momenti creativi: l’istante dello scattoe quello della successiva elaborazione dell’im-magine. Ciò non deve “scandalizzare” (com’e-ra nella mentalità classica per le modifiche“post-cattura” delle immagini): infatti sia nellemacchine tradizionali che in quelle digitali ilparametro della resa cromatica dipende apriori quasi esclusivamente dalle scelte tecno-logiche operate nel primo caso dai produttoridi pellicola e, nel secondo caso, dai costruttoridelle macchine con le loro elaborazioni pro-prietarie. Ma nel caso delle macchine digitali ilfotografo si riappropria della possibilità di agi-re sul colore agendo su una sua particolaresensibilità alla resa cromatica, attraverso lesuccessive elaborazioni che è in grado di deci-dere personalmente. Nasce di conseguenzaoggi, per molti fotografi, il nuovo grado di li-bertà di poter incidere a posteriori su tutta unaserie di parametri che possono modificare so-stanzialmente il risultato ottenuto all’atto del-lo scatto, risultato che, molto più del passato,può essere considerato come una particolaree soggettiva “interpretazione” del soggettocatturato attraverso lo scatto.

2. ELEMENTI DI COLORIMETRIAE TEORIA TRICROMATICA

2.1. GeneralitàIl colore di una superficie o di un oggetto di-pende da come lo spettro della luce incidente(bianca o colorata) viene modificata dalle ca-ratteristiche superficiali dell’oggetto stesso.Se una persona, con un sistema visivo cherientra nella media, cerca di ottenere una cor-rispondenza di percezione cromatica fra unaparticolare luce (direttamente generata dauna fonte di luce o riflessa da una superficie)e la risultante dalla somma di più luci, sco-prirà che, in generale, sarà necessario mesco-lare non meno di tre luci con una fissata com-posizione spettrale ed intensità opportunaper ottenere la cercata corrispondenza croma-

M O N D O D I G I T A L E • n . 4 - d i c e m b r e 2 0 0 7

1

21

0

0

0

1

Page 3: STATO DELL’ARTE DELLA FOTOGRAFIA DIGITALEarchivio-mondodigitale.aicanet.net/Rivista/07_numero_4/Vannucchi p... · La fotografia digitale, grazie alle tecniche ICT, ha fatto in questi

tica. Tale equivalenza rende palese la naturatricromartica del sistema visivo umano per ciòche attiene alla percezione del colore e ciò èsuffragato dall’esistenza di tre differenti cellu-le sulla retina (coni) con diverse sensibilitàspettrali. In altre parole, i due stimoli (luce ditest e primari) anche se caratterizzati da diffe-renti composizioni spettrali possono riprodur-re la stessa sensazione di colore purché essesuscitino gli stessi livelli di attività nei coni eciò dipende dall’integrale del prodotto dellaloro composizione spettrale per la curva disensibilità di ciascun tipo di coni.La colorimetria è la scienza che ha per ogget-to lo studio e la misura delle “sensazioni dicolore” che l’osservatore umano percepisce.L’approccio tricromatico per la rappresenta-zione della sensazione umana del colore sibasa su alcuni importanti assiomi stabiliti ametà dell’800 da Grassman e su test accuratieffettuati alla fine degli anni ’20 per il “colormatching”. Per qualche maggiori dettagliosu questo argomento si rimanda all’Appen-dice 1 a p. 36.In definitiva, pur con alcune limitazioni, un os-servatore che punti la sua attenzione su una lu-ce colorata [C] (caratterizzata da una sua com-posizione spettrale o, come caso particolare,monocromatica) percepisce la stessa impres-sione visiva della somma di tre luci primarie [P1],[P2], [P3] (a loro volta con proprie distribuzionispettrali o monocromatiche come il caso di fi-gura A1.1 nell’ Appendice 1) purché esse abbia-no opportune pesature A1

[C], A2[C], A3

[C] (valori dimatching). Ovviamente, anche a parità di [C], lepesature sono differenti a seconda della naturae caratteristiche spettrali dei primari scelti.La tipica espressione colorimetrica genera-lizzata è pertanto la seguente:

(1)

L’ultima parte dell’equazione esprime la nor-malizzazione dei pesi rispetto a quelli neces-sari, con le stesse tre luci primarie, a “ripro-durre” una luce bianca [W] di riferimento amassima intensità: essi sono indicati conA1

[W], A2[W], A3

[W] e rappresentano solo costantidi normalizzazione.Sono così definiti i coefficienti T1

[C], T2[C], T3

[C],detti “valori di tristimolo”, relativi al colore [C].

I valori di matching A1[C], A2

[C], A3[C] (e quindi an-

che T1[C], T2

[C], T3[C]) dipendono dalla natura dei

primari e dallo spettro della luce [C] ed, in li-nea di principio, possono essere valutati spe-rimentalmente per ciascuna combinazione diluce di test e di primari.Nel caso che la luce [C] sia monocromatica edi intensità unitaria, al variare della sua lun-ghezza d’onda caratteristica (λ) i valori ditristimolo T1

[C], T2[C], T3

[C] descriveranno trefunzioni di λ indicate col nome di Color Mat-ching Function associate ai particolari pri-mari selezionati (ed al bianco di riferimentoscelto). Se, per esempio, si scegliessero itre primari monocromatici RGB del CIE (vediAppendice 1), le Color Matching Functionsarebbero quelle riportate nella figura A.1.1,a meno di fattori di scala legati alle norma-lizzazioni utilizzate per tracciare i grafici.Si indicheranno con T1 (λ), T2 (λ), T3 (λ) i valoridi tristimolo per colori monocromatici per dif-ferenti lunghezze d’onda della luce di test (Co-lor Matching Function). Una volta note le Co-lor Matching Function (relative ai primari ge-nerici ed al bianco di riferimento scelti) lecomponenti di tristimolo di una generica luce[C] con uno spettro qualsiasi potranno esserevalutate analiticamente, e non più solo speri-mentalmente, in virtù della legge di addittivitàdi Grassman. Più precisamente, si avrà che:

Tj[C] = ∫C (λ) Tj (λ) dλ j = 1,2,3 (2)

in cui C (λ) indica specificatamente lo spettrodella luce [C]. I valori di tristimolo per il colore[C] così ottenuti possono anche essere nega-tivi (cfr. per esempio Figura A1.1 nell’Appen-dice 1). Dal momento che essi rappresentanounità di energia, l’interpretazione fisica diquesto risultato matematico è quella di unacorrispondenza di sensazione cromatica frala somma della luce in analisi con il primariocaratterizzato da valore di tristimolo con se-gno negativo (la cui intensità sarà associataal modulo di tale valore) e la somma degli al-tri due primari. Comunque, da un punto di vi-sta pratico, non essendo fisicamente realiz-zabili valori di tristimolo negativi, ciò implica,in conseguenza, l’esistenza di colori che nonpossono essere sintetizzati come somma pe-sata (con pesi positivi) delle tre luci primariescelte. Fortunatamente è possibile selezio-

C A P T P A[ ] ≡ [ ] = [ ][ ]

=

[ ] [ ]

=∑ ∑j

Cj j

Cj j

W

jj 1

3

1

3

M O N D O D I G I T A L E • n . 4 - d i c e m b r e 2 0 0 7

1

0

0

0

1

22

Page 4: STATO DELL’ARTE DELLA FOTOGRAFIA DIGITALEarchivio-mondodigitale.aicanet.net/Rivista/07_numero_4/Vannucchi p... · La fotografia digitale, grazie alle tecniche ICT, ha fatto in questi

nare dei primari con i quali si è in grado di ri-produrre la maggior parte dei colori più co-muni e naturali e per maggiori informazionisugli spazi cromatici e le varie standardizza-zioni si rimanda all’Appendice 2 a p. 37.È possibile anche scegliere primari (vedi Fi-gura A2.1 nell’Appendice 2) per cui le ColorMatching Function sono sempre positive, maciò implica che tali primari non siano fisica-mente realizzabili.I valori di tristimolo possono essere conside-rati come le coordinate di un punto di unospazio di colore tridimensionale. Un partico-lare colore può essere descritto come unpunto in questo spazio. Bisogna tuttavia ri-cordare che la senzazione di colore non è de-scritta dalla lunghezza del vettore che unisceil punto rappresentativo del colore con l’ori-gine, ma piuttosto dal rapporto fra le coordi-nate (valori di tristimolo) di tale punto.L’insieme di colori riproducibili da una ternadi luci primarie, ad esempio il Rosso, Verde eBlu con determinate distribuzioni spettrali dipotenza, viene chiamato “color gamut” delsistema di primari definiti. I colori che rispet-to a tale sistema non possono essere ripro-dotti esattamente sono esterni al gamut(gamma) del sistema scelto.

2.2. Colorimetria e sistemi di acquisizionedella fotocamera digitaleA riguardo dei moderni sistemi di acquisizio-ne digitale di immagini, va ricordato che essisi basano, in generale, sull’uso di un sistemaottico tradizionale nel cui piano immagine so-no presenti uno o più sensori che effettuanola conversione fra energia ottica ed elettrica.Tipicamente nelle fotocamere digitali, comedi vedrà in seguito, si utilizza un solo sensore,mentre per le telecamere professionali spes-so ne vengono utilizzati tre, attraverso l’uso diopportune geometrie ottiche. In ogni caso fraottica e sensore/i sono disposti opportuni fil-tri colorati (vedi più avanti Figura 3).Per ogni elemento d’immagine acquista, ilsensore/i fornirà un vettore di 3 elementi icui valori, indicati con UR, UG, UB, sono dati, inanalogia con la eq. (2), da:

UX = ∫C (λ) FX (λ) h (λ) dλ X = R, G, B (3)

dove C (λ) è la densità di energia della luce

incidente, FX (λ) è la risposta spettrale dei fil-tri utilizzati (vedi Figura 4), mentre h (λ) è larisposta spettrale dell’elemento fotosensibi-le comune a tutti i pixel. Chiaramente nell’eq.(3) le funzioni di λ sono sempre positive equindi anche UR, UG, UB saranno scalari sem-pre positivi indipendentemente dallaluce/colore considerata. Ciò porta ad affer-mare che i primari su cui si basa il sistema diacquisizione delle informazione di colore so-no dei primari non fisicamente realizzabili(come i ben noti CIE-XYZ di cui si parla nel-l’Appendice 2). Quindi le informazione di co-lore acquisite in questo modo non possonoessere utilizzate, così come sono, come inputdi un sistema di visualizzazione a tre primarifisicamente realizzabili, ma dovranno essereopportunamente trasformate (rimappate).I dispositivi di acquisizione danno quindi inuscita le informazioni di colore non nel forma-to nativo (ossia il segnale “Raw” che “esce”dal sensore/i), ma trasformano le informazioniacquisite riferendole ad una terna di primariche possano essere fisicamente riprodotti. Ti-picamente per le fotocamere digitali viene uti-lizzato il cosiddetto spazio colore sRGB (vediAppendice 2 relativa agli spazi cromatici).Il passaggio fra formato “Raw” e formatosRGB avviene attraverso una trasformazio-ne lineare (moltiplicazione per una matrice3 × 3). Non è assicurato che all’uscita di taletrasformazione le componenti siano semprepositive. In caso si generino componenti ne-gative esse vengono opportunamente ri-mappate su valori positivi.Nel corso degli ultimi anni, data la sempremaggiore diffusione di software per la post-elaborazione digitale delle immagini, un nu-mero sempre maggiore di fotocamere digitalipermette di conservare l’immagine anche informato Raw. Così facendo, per l’elaborazio-ne del segnale, si possono usare dei pro-grammi molto sofisticati avendo a disposizio-ne la potenza di calcolo di un PC, senza le re-strizioni di costo, consumo di potenza, tempodi processamento (per ridurre al minimo iltempo tra due scatti consecutivi) e quantitàdi memoria dinamica a cui devono sottostarele macchine fotografiche digitali. Ovviamenteè necessario disporre di una notevole memo-ria per l’immagazzinamento delle immaginicatturate in tale formato nativo.

M O N D O D I G I T A L E • n . 4 - d i c e m b r e 2 0 0 7

1

23

0

0

0

1

Page 5: STATO DELL’ARTE DELLA FOTOGRAFIA DIGITALEarchivio-mondodigitale.aicanet.net/Rivista/07_numero_4/Vannucchi p... · La fotografia digitale, grazie alle tecniche ICT, ha fatto in questi

Lo scopo di questa prima parte dell’articoloè stata quella di illustrare come risultino es-sere due cose completamente diverse lecurve di sensibilità dei filtri utilizzati perl’acquisizione tricromatica nelle fotocameredigitali e la composizione spettrale (e con-seguentemente i gamut) dei primari utiliz-zati per la rappresentazione delle immaginiacquisite.

3. LA FOTOCAMERA DIGITALE

Lo schema a blocchi di una moderna fotoca-mera digitale é riportata nella figura 1.Nello schema si identifica un sistema otticodel tutto corrispondente a quello di una foto-camera tradizionale. Il secondo blocco cherappresenta il cuore della fotocamera digita-le è il sensore cui spetta il compito di trasfor-mare i fotoni (luce) in elettroni (cariche elet-triche) per ciascuna porzione elementaredell’immagine. La quantità di carica accumu-lata in ogni elemento del sensore viene poiletta e convertita in informazioni digitali chesubiscono di seguito una serie di processa-menti assai importanti per garantire la qua-lità finale dell’immagine e per la sua rappre-

sentazione nel formato desiderato per la me-morizzazione.Al termine della catena, i dati processati ven-gono codificati ed elaborati numericamenteper convertirli nei noti formati compressi divisualizzazione di immagini (JPEG, TIFF ecc.a seconda delle esigenze, come si vedrà me-glio più avanti) che ne riducono drasticamen-te le dimensioni e ne permettono una piùagevole memorizzazione. Sono questi i datifinali che vengono immagazzinati in una me-moria (storage media) estraibile a stato soli-do di tipo “flash”, con dimensioni e caratteri-stiche standard o proprietarie, che è in gradodi immagazzinare un numero considerevoledi immagini il cui valore esatto dipende dalnumero di pixel del sensore e dal grado dicompressione adottato.L’immagine può, tuttavia, essere anche me-morizzata (a spese di un ingombro notevole dimemoria) in puri dati numerici grezzi (RAW),così come forniti dal sensore ed elaboratasuccessivamente in un vero e proprio compu-ter con opportuni programmi software di no-tevole complessità. Tale prestazione è oggisempre più tipicamente fornita, oltre che damacchine professionali, anche da apparecchi

M O N D O D I G I T A L E • n . 4 - d i c e m b r e 2 0 0 7

1

0

0

0

1

24

SENSOR ProcessingPicture

➢ Microcontroller

➢System Timing➢User Interface➢Memory Interface➢Data I/O Interface

Serial Data I/O:

� IRDA� RS232� USB� IEEE 1394

FrameBuffer

IEEE 1394Encoder

LCD PreviewDisplay

LCD Controllerand Drivers

Storage Media:

� Flash Mem.� HDD

DRAM

ImageCO-DEC

Autofocus/ShutterDrivers & Actuators

Image Drivers &Regulators

Photometry Interface & Processing

Power Management Converters & Control

Audio OutAudio Acquisition Audio Processing

Battery

FIGURA 1Schema a blocchi di una fotocamera digitale. Con le scritte a colori sono indicate le funzioni della fotocameradigitale analizzate nel seguito (Fonte: STM)

Page 6: STATO DELL’ARTE DELLA FOTOGRAFIA DIGITALEarchivio-mondodigitale.aicanet.net/Rivista/07_numero_4/Vannucchi p... · La fotografia digitale, grazie alle tecniche ICT, ha fatto in questi

prosumer (fusione dei due termini professio-nal e consumer) e da alcuni tipi di compatte.

4. SENSORI E “COSTRUZIONE”DELL’IMMAGINE

4.1. Principi dei sensori e caratteristichedi baseLe macchine fotografiche digitali per catturarel’immagine impiegano dispositivi fotosensibilia semiconduttori (sensori) in grado di trasfor-mare l’informazione luminosa, messa a fuocosul sensore, in cariche elettriche distribuitespazialmente su elementi sensibili che costi-tuiscono la superficie del sensore medesimo.Nello studio dei sensori è utile adottare la di-stinzione concettuale tra “photodetector”(elemento unitario fotosensibile che nei sen-sori registra solo livelli di luce acromatica),“photosite” (luogo fisico del sensore dove sicatturano i dettagli dell’immagine e che puòessere costituito da un solo, o due o tre pho-todetector ed il “pixel” che rappresenta lapiù piccola porzione del singolo elemento diuna matrice ideale con le relative informazio-ni di colore. Il pixel, anche se ha un preciso si-gnificato fisico, rappresenta spesso un datoelaborato - cioè un‘entità software piuttostoche hardware - in quanto, per il colore di unsingolo punto della matrice, si sfrutta l’inter-polazione con le informazioni cromatiche deipunti adiacenti.Qualora in un photosite si impieghino trephotodetector su ciascuno dei quali si depo-sita un opportuno filtro colorato, si è in gradodi rivelare le tre componenti primarie (rossa,verde, blu) del colore della luce incidente nelpunto considerato. Nel caso invece in cui perun photosite si adotta un solo photodetector(ed è la situazione più tipica) è necessarioimpiegare metodi di interpolazione con leinformazioni adiacenti. Nel primo caso citatoil photosite coincide anche con la definizionedi pixel, mentre nel secondo caso il pixel na-sce come risultato dell’elaborazione softwa-re con utilizzo delle informazioni dei photosi-te/photodetector adiacenti.In realtà, nelle fotocamere digitali, vengononormalmente impiegate strutture diverse pergarantire un migliore uso dell’area del senso-re. In ogni caso il livello di entità di carica ac-cumulata da ogni photodetector viene poi

convertita (tramite un convertitore A/D) in unnumero binario con livello opportuno di bit(10, 12, 14) che determinano la precisione concui il sensore è in grado di acquisire le infor-mazioni di luminosità cromatica. Maggiore èil numero di livelli, minore sarà il rumore diquantizzazione (ossia l’approssimazione nel-la conversione A/D). Va ricordato come il ru-more di quantizzazione possa portare nel ca-so delle immagini alla creazione di falsi coloriod a falsi contorni (contouring) in particolarenelle regioni con passaggi a lievi sfumature.Agli inizi della fotografia digitale la risoluzio-ne della fotocamera, e quindi dei sensori, èstato uno dei fattori più determinanti per laqualità e, pertanto, dal punto di vista delmarketing, si era adottata l’equazione: “piùpixel = migliore qualità”, in quanto risultavasemplice associare ad un unico parametrol’indice di qualità del dispositivo.Per queste ragioni storiche, nella presenta-zione delle macchine fotografiche i costrut-tori quasi sempre usano i termini photode-tector e pixel come acronimi. Ciò in linea diprincipio non è corretto, ma consente di in-dicare valori numerici maggiori (di pixelche tali in realtà non sono), mentre dalpunto di vista della risoluzione effettiva lasituazione è peggiore di quella indicata.Occorrerebbero, infatti, tre diversi photo-detector per photosite per descrivere conprecisione un pixel nelle sue effettive infor-mazioni di colore.La corrente di pensiero sopra menzionata hascatenato una corsa alla miniaturizzazione(per offrire più “pixel” a parità di area) che, inaggiunta alla migliore qualità, ha permessouna maggiore flessibilità (per esempio stam-pe di maggiori dimensioni senza perdita di ri-soluzione o stampe di porzione dell’immagi-ne anch’esse senza perdita di risoluzione),nonchè l’utilizzo della maggiore risoluzioneper migliorare altri aspetti che influenzano laqualità. È importante tuttavia ricordare cheaccrescere eccessivamente la risoluzione delsensore senza accrescere la sua superficie,riduce l’area del singolo photodetector e diconseguenza la sensibilità del sensore. Inconseguenza di ciò, oggi si sta facendo un pòdi marcia indietro su tale aspetto.Peraltro non è consigliabile realizzare sensoriche occupino aree fisicamente molto grandi,

M O N D O D I G I T A L E • n . 4 - d i c e m b r e 2 0 0 7

1

25

0

0

0

1

Page 7: STATO DELL’ARTE DELLA FOTOGRAFIA DIGITALEarchivio-mondodigitale.aicanet.net/Rivista/07_numero_4/Vannucchi p... · La fotografia digitale, grazie alle tecniche ICT, ha fatto in questi

perché questo introduce costi e limitazionisulle ottiche. Basta a tale proposito ricordare,nella classica fotografia su pellicola, le diffe-renze tra le ottiche per fotocamere a 35 mm equelle per macchine 6 × 6 cm.Premesso quanto sopra, le principali caratte-ristiche a cui, in sintesi, un sensore deve sod-disfare possono così riassumersi:❑ adeguato numero di photodetector, pergarantire un elevato dettaglio di immagine eper soddisfare la qualità di eventuali ingran-dimenti, senza tuttavia far nascere eccessiviproblemi di velocità nel trasferimento dei da-ti al processore d’immagine;❑ elevato rapporto segnale-rumore, in parti-colare nella cattura d’immagini a bassa lumi-nosità, evitando segnali spuri derivanti da ru-mori di fondo degli elementi fotosensibili;❑ elevata gamma dinamica, ossia ampiezzad’intervallo di luminosità registrabile primache il photodetector vada in saturazione; ❑ capacità di non trattenere “ombre”, relativecioè alla persistenza di immagini precedenti(vale in particolare per i sensori di tipo CMOS).Se la dimensione fisica del sensore è elevataa parità di numero di pixel denunciati dal co-struttore, questo comporta ovviamente unamaggiore dimensione fisica dei photodetec-tor. Tale fatto rende maggiormente sensibileil sensore garantendone un miglior rapportosegnale/rumore.I sensori di alcune costose fotocamere RE-FLEX professionali hanno il sensore CCD conuna dimensione 24 × 36 mm, pari cioè a quel-la del fotogramma della pellicola. Con questedimensioni, oltre ad avere un basso rumore,la lunghezza focale delle ottiche usate per lefotocamere tradizionali non viene alterata nelloro impiego in macchine digitali ad obiettivointercambiabile. Fuori da questi casi le dimen-sioni dei sensori possono variare da macchinaa macchina (pur mantenendo sempre 2/3 co-me rapporto dei lati) e la focale di un obiettivodi una fotocamera tradizionale si riduce dellostesso rapporto dei lati del sensore rispettoagli omologhi del fotogramma della pellicolaTuttavia, come già accennato, per le fotoca-mere digitali è invalso l’uso di esprimere le fo-cali in termini equivalenti a quelle delle foto-camere tradizionali, mentre in realtà il valoreeffettivo è più piccolo e questo spiega la com-pattezza degli obiettivi.

4.2. Tecnologie CCD e C- MOS impiegateper i sensoriI sensori possono essere di tipo CCD (ChargeCoupled Devices) o di tipo CMOS (Complemen-tary Metal Oxide Semiconductor). Senza entra-re in eccessivi dettagli, si riportano di seguito lemaggiori differenze tra i due tipi di sensori.Entrambi i sensori CCD e CMOS sono costituitida una matrice di milioni di celle sensibili allaluce che, per ambedue i tipi, sono realizzati at-traverso photo-diodes oppure photo-gates.Ciascuna di queste celle converte in caricheelettriche i fotoni che incidono sulla relativaporzione d’immagine: le celle a foto-diodousano la giunzione per immagazzinare la cari-ca generata, mentre le celle a foto-gate usanole barriere di potenziale della loro capacità. Ta-li celle costituiscono i photodetector o i photo-site (nel caso di un solo detector) già definitepoco sopra e tanto maggiore è l’intensità dellaluce incidente tanto maggiore è la carica elet-trica che viene accumulata nel relativo sito.Il passo successivo è quello di leggere i valoridelle cariche accumulate in ciascuna cella. In unCCD la carica è “estratta” ad un angolo estremodel sensore e le cariche di ciascun elemento fo-tosensibile debbono, attraverso opportune tec-niche di indirizzamento che generano i neces-sari campi elettrici, essere trasferite nelle di-verse celle contigue per giungere alla porta diuscita (da cui il nome del dispositivo). Ciò signi-fica che la carica deve essere “spinta” da un pixela quello adiacente senza che parte di essa ri-manga confinata nel pixel da cui è stata gene-rata o in cui transita. Tale metodo di scansionedei CCD richiede tensioni nel campo 2.5 ~ 10 Ve comporta un maggiore consumo di potenzarispetto ai sensori di tipo CMOS. Le cariche tra-sferite, alla fine del processo di scansione, so-no trasformate in tensione attraverso l’uso diun’opportuna capacità. Si genera in tal modo,attraverso la lettura, una successione di cam-pioni analogici sequenziali che vengono tradot-ti in numeri binari per mezzo di un convertitoreanalogico-digitale.Lo scopo principale della progettazione e deiprocessi di costruzione dei CCD è quello dimassimizzare il parametro Charge Transfer Ef-ficiency (CTE), che misura il rapporto tra la cari-ca trasferita e quella che rimane nel pixel chel’ha generata. Ciò si traduce in speciali proces-si manifatturieri e nella necessità, come già ac-

M O N D O D I G I T A L E • n . 4 - d i c e m b r e 2 0 0 7

1

0

0

0

1

26

Page 8: STATO DELL’ARTE DELLA FOTOGRAFIA DIGITALEarchivio-mondodigitale.aicanet.net/Rivista/07_numero_4/Vannucchi p... · La fotografia digitale, grazie alle tecniche ICT, ha fatto in questi

cennato, di tensioni di alimentazione più ele-vate con un conseguente maggiore consumodi potenza rispetto al caso dei C-MOS.I vantaggi del CCD consistono nell’averemaggiore sensibilità, un trasferimento di ca-rica immune da rumore e, a causa delle bar-riere di potenziale per il trasferimento di cari-ca, una minore dark-current (ossia un flussodi cariche generate dal dispositivo in assenzadi segnale). In sintesi si può dire che i CCDhanno una maggiore fedeltà e sensibilità allaluce incidente, con la possibilità di creare im-magini con basso rumore e di alta qualità.I sensori indicati col nome C-MOS si basanosullo stesso principio di trasformazione del-la luce in carica elettrica, ma il segnale ge-nerato in ciascuna cella viene trasformato intensione prima del trasferimento: ne conse-gue la necessità di introdurre in loco un con-densatore che trasformi la carica in tensio-ne e, spesso, l’opportunità di introdurre uncircuito di amplificazione a livello di photo-detector, riducendo la percentuale dell’areafotosensibile (tale percentuale è nota comeFill-Factor). Il segnale generato viene tra-sportato all’uscita attraverso percorsi alta-mente conduttivi e questa è un’altra ragio-ne per un consumo di potenza ridotto ri-spetto al CCD. Aspetto negativo risulta inve-ce il fatto che l’assenza di barriere di poten-ziale produce, nei sensori C-MOS una mag-giore dark-current.Per quanto detto sopra, come illustrato nellafigura 2, i sensori di tipo CMOS possono esse-re classificati in sensori con photodetector ditipo passivo o attivo (APS: Active Pixel Sen-sor). Nei primi il photodetector è costituitoesclusivamente dal fotodiodo, un interruttoreed un condensatore. Nei sensori APS si ha in-vece anche la presenza di un amplificatore perciascun photodetector ottenendo quindi unmaggiore SNR, ma riducendo il fill-factor.II grande vantaggio dei sensori a C-MOS èquello di usare le stesse tecnologie a semi-conduttore utilizzate in grande serie per i di-spositivi logici, ciò che permette integrazionisullo stesso chip con altra circuitistica.In sintesi si può affermare che i vantaggi deisensori CMOS, rispetto ai CCD, risiedono in unminor costo di sistema(dovuto ai più semplicicriteri di indirizzamento ed alla integrazionedel convertitore analogico-digitale sullo stes-

so chip), un consumo di potenza più basso enell’uso di tecnologie a semiconduttore stan-dard che permettono di integrare più funziona-lità (per esempio la parte di conversione A/D edi elaborazione all’interno dello stesso chip.Ciò tuttavia a scapito di una maggiore dark-current, di un fill-factor meno buono e quindi, aparità di area, di una minore sensibilità rispet-to ai sensori CCD (per cui si può ricorrere all’u-so di microlenti su ciascun photodetector co-me illustrato più avanti).Le precedenti considerazioni spiegano il per-ché della grande diffusione nel campo dellatelefonia cellulare di fotocamere realizzatecon tecnologia CMOS. Il grande miglioramen-to dei processi produttivi di questo tipo disensori ha portato al loro uso nelle fotoca-mere digitali denominate SLR (Single LensReflex) ossia di fascia alta.Non vi è dubbio che, nel tempo, i sensori C-MOS miglioreranno al punto da essere para-gonabili ai sensori CCD per la massima partedelle applicazioni, ma ancora questo traguar-do non è stato raggiunto.Poiché l’architettura ed il layout fisico è es-senzialmente indipendente dalla tecnologia,per il seguito di questo articolo i due tipi disensori possono essere considerati sostan-zialmente coincidenti.

4.3. Tecniche per la cattura del colorenei sensoriIl sensore è costituito da una matrice di elementifotosensibili a tutte le lunghezze d’onda dellaradiazione elettromagnetica visibile (ed ancheall’infrarosso). Per rendere possibile l’acquisi-zione di informazioni di colore in modalità tri-

M O N D O D I G I T A L E • n . 4 - d i c e m b r e 2 0 0 7

1

27

0

0

0

1

Pixel Pixel

Cint Cint

Rst

Passivo pixel Attivo

Rd

FIGURA 2Sensori con cellepassive od attive

Page 9: STATO DELL’ARTE DELLA FOTOGRAFIA DIGITALEarchivio-mondodigitale.aicanet.net/Rivista/07_numero_4/Vannucchi p... · La fotografia digitale, grazie alle tecniche ICT, ha fatto in questi

cromatica, ciascuno elemento della matrice vie-ne reso sensibile ad una particolare intervallodi lunghezze d’onda con la deposizione di un fil-tro appropriato su ciascun photodetector.Sono normalmente utilizzate due classi difiltri: quelli “trasparenti” a bande spettralicentrate intorno al rosso, verde e blu (coloriprimari) o quelli “trasparenti” a bande cen-trate intorno a Ciano, Magenta e Giallo (co-lori complementari). La prima classe è quel-la normalmente preferita poiché permetteuna maggiore fedeltà nell’acquisizione del-le informazioni di colori e durante il seguitodell’articolo si farà riferimento solo ad essa.Le camere digitali più popolari utilizzano unsolo sensore per l’acquisizione dell’immagine

e su di esso è disposto un filtro a mosaico de-nominato “Color Filter Array” (CFA). I filtri so-no disposti secondo opportuni mosaici di cui ilpiù utilizzato è noto come “Bayer pattern” (dalnome di chi lo ha proposto), caratterizzandosiin realtà con tale nome una famiglia con va-rianti nel numero dei colori filtrati (3 o 4) e neltipo di disposizione dei colori sul mosaico. Ilpiù comunemente usato è quello denominatoGRGB che ha il 50% dei pixel che catturano ilVerde (G), il 25% che catturano il Rosso (R) edil rimanente 25 % che catturano il Blu (B) (Fi-gura 3). Questa particolare distribuzione tieneconto della maggiore sensibilità dell’occhioumano alle lunghezze d’onda prossime al Ver-de. Nella figura 4 sono riportate le rispostespettrali tipiche di una terna di filtri colore: sinoti che in realtà i filtri utilizzati sono quattro,poiché deve essere utilizzato anche un filtro IRanti-infrarosso per evitare l’acquisizione dienergia ottica relativa all’infrarosso.Di recente sono state introdotte delle solu-zione alternative al pattern di Bayer dove ilsecondo pixel sensibile al Verde è stato sosti-tuito da uno sensibile allo Smeraldo (Sony)nel tentativo di migliorare la qualità dei colo-ri. Sono state anche introdotte particolaristrutture di pixel per una maggiore definizio-ne e campo dinamico (Fujifilm) in modo daevitare la perdita di dettagli dovuta alla satu-razione, Infine sono stati anche proposti nuo-vi pattern con l’introduzione di pixel non- ma-scherati con filtri colorati (Kodak) per miglio-rare entrambi gli aspetti di cui sopra.Poiché per la struttura adottata, ogni photode-tector cattura solo una delle componenti pri-marie RGB, se si vuole avere in uscita un’im-magine con un numero di pixel pari a quellodei photodetector le altre due componenti cro-matiche che concorrono alla formazione di unpixel vengono calcolate dal processore d’im-magine con l’algoritmo di “demosaicing” checonsiste nell’applicare un opportuno metododi interpolazione utilizzando anche le informa-zioni dei valori cromatici dei phodetector adia-centi. Con tale procedura si ottenengono buo-ni risultati anche in virtù della minore risoluzio-ne dell’occhio umano alle differenze cromati-che rispetto a quelle di luminosità.Il processo di “ricostruzione” del colore ed imetodi di bilanciamento del bianco di cui siparlerà poco avanti, assumono un ruolo deter-

M O N D O D I G I T A L E • n . 4 - d i c e m b r e 2 0 0 7

1

0

0

0

1

28

FIGURA 3Un sensore fotosensibile acromatico (sensibile cioè a tutte le lunghezze d’ondadella luce visibile) si trasforma in un sensore a colori attraverso l’aggiunta suiphotodetector di filtri di colore RGB (in questo caso secondo il pattern di Bayer)

FIGURA 4Risposte dei filtri depositati sui photodetector del sensore di immagine

Sensore acromatico Sensore cromatico

1

Norm

alis

ed re

spon

se

400 500 600 700

Wavelength (nm)

IR

0

Page 10: STATO DELL’ARTE DELLA FOTOGRAFIA DIGITALEarchivio-mondodigitale.aicanet.net/Rivista/07_numero_4/Vannucchi p... · La fotografia digitale, grazie alle tecniche ICT, ha fatto in questi

minante nell’ottenere immagini di buona qua-lità e vengono di conseguenza utilizzati algo-ritmi di elevata complessità e software pro-prietari che i costruttori mantengono riservati.Val la pena citare che In commercio esiste unsolo sensore, il FOVEON, in grado di catturaretutte e tre le componenti RGB su un unicophotosite e che, in quanto tale, è più simileall’occhio umano. La sua diffusione è tuttaviafinora abbastanza più ridotta rispetto ai sen-sori dotati di Color Filter Array.Tecnologicamente legato al deposito dei fil-tri di colore è l’accrescimento di microlentisu ciascun photodetector in modo da foca-lizzare i fotoni sulla parte sensibile del pho-todetector (Figura 5). Si compensa in talmodo la perdita di sensibilità del sensoreconseguente a fill-factor significativamenteminori di 1.

5. PROCESSAMENTO DEI DATIFORNITI DAL SENSORE

La figura 6 descrive una tipica catena di elabo-razione digitale dei dati forniti dal sensore.Alcuni di essi sono attivi durante la fase dipre-cattura: viene infatti analizzata l’immagi-ne (o il flusso di immagini acquisite dal sen-sore) estraendone caratteristiche come l’i-stogramma dei tre canali colore, valori medi

di luminosità, contenuto di alta frequenza edenergia media per canale.Con tali parametri si opera una serie di ope-razioni di “pre-processing” per impostarel’autofocus (AF), l’esposizione automatica(AE) ed il bilanciamento automatico delbianco (AWB) (di cui solo quest’ultimo è tipi-co delle fotocamere digitali) nonchè la ridu-zione del Rumore (Noise Reduction).Si ha poi una catena di ulteriori processa-menti (escluso il formato RAW cui sopra si èaccennato) relativi specificatamente al co-lore quali la ricostruzione dell’informazio-ne colore (Pixel Interpolation, la correzionedei contorni (Anti-Aliasing) per modificarefalsi colori, lo sharpening per migliorare lanitidezza e la trasformazione “gamma” pertener conto della non-linearità dei monitor.

M O N D O D I G I T A L E • n . 4 - d i c e m b r e 2 0 0 7

1

29

0

0

0

1

Memory JPEG

AF AWB AEC

RGB

Bayer

Display

Post-Processing

Pre-Processing

Processing

Gamma Matrix AntiAliasing

ColourBoost

Dig.Stab.

NoiseRed.

Exp. TimeGain Ctrl

Interpolation

PanoramaImg. Fusion

Red Eye

High End ImageEnhancement

FIGURA 5Micro-lenti disposte sui photodetector del pattern del sensore per aumentarnela sensibilità

FIGURA 6Tipica catenadi elaborazionedigitale dei datiforniti dal sensore(Fonte: ST)

Page 11: STATO DELL’ARTE DELLA FOTOGRAFIA DIGITALEarchivio-mondodigitale.aicanet.net/Rivista/07_numero_4/Vannucchi p... · La fotografia digitale, grazie alle tecniche ICT, ha fatto in questi

Le informazioni relative ad ogni pixel vengo-no infine registrate in un file che possiede leinformazioni di tutte e tre le componentiRGB. per subire infine i processi di compres-sione e memorizzazione.

5.1. Equalizzazione automatica di immaginia colori (bilanciamento del bianco)Le informazioni di colore associate alle imma-gini acquisite con tecniche tradizionali (pelli-cola fotografica) e con tecniche digitali sonoinfluenzate sia dalla riflettanza delle superficiinquadrate, sia, in maniera altrettanto signifi-cativa, dal tipo di illuminazione della scena.Uno stesso oggetto appare di colore diversose osservato in piena luce solare o sotto unaluce fluorescente o ad incandescenza.Il nostro sistema percettivo è tuttavia in gra-do di compensare, in buona misura, questevariazioni e pertanto la nostra percezione delcolore risulta, entro certi limiti, indipendentedalle caratteristiche spettrali della sorgenteluminosa che illumina la scena. (un fogliobianco, ad esempio, verrà percepito grosso-modo dello stesso colore se visto sotto lucesolare o sotto una lampada con filamento altungsteno, pur essendo gli spettri delle dueluci profondamente diversi).Ovviamente queste capacità di “chromatic adap-tation” del nostro sistema visivo si attivano quan-do si osserva una scena reale. Osservando, in-vece una fotografia, queste differenze ci ap-paiono in tutta la loro importanza. È quindi im-portante che le moderne fotocamere digitali edi programmi di fotoritocco rendano disponibilidelle tecniche che simulino, in qualche modo, ilcomportamento del nostro sistema visivo.La tecnica più semplice a questo riguardo è ilcosiddetto “bilanciamento del bianco che, inultima analisi, non è altro che l’aggiustamen-to dei colori di una fotografia in modo da evi-tare dominanti poco gradevoli. Ovviamente ilrisultato gradevole può essere anche un fattosoggettivo legato alla creatività e sensibilitàdel fotografo. Facendo riferimento a quantoillustrato nella prima parte dell’articolo sullacolorimetria, ciò significa riscalare le compo-nenti di colore in modo che le aree che si ri-tengono bianche siano rappresentati con va-lori R, G, B uguali fra loro (e di ampiezza mas-sima se la superficie considerata può essereassunta come la più luminosa possibile).

Un modo oggettivo e semplice di procedereper il bilanciamento è quello di effettuare lacalibrazione a priori del bianco della fotoca-mera inquadrando una superficie bianca di ri-ferimento. Il processore della camera legge ivalori R, G, B medi dell’immagine e trova i fat-tori di scala da applicare ad ogni canale di co-lore per ottenere il colore associato alla super-ficie bianca osservata sotto la luce di riferi-mento (per esempio luce solare indiretta).Questi fattori di scala saranno poi automatica-mente applicati a tutte le immagini in seguitoacquisite. Oltre alla procedure qui menziona-ta, le fotocamere hanno poi la possibilità di ca-librazione del bianco per i tipi di luce più comu-ni (solare, incandescenza, fluorescente, fla-sh,…). La tecnica è semplice ed interessante,ma richiede di eseguire correttamente questafase di calibrazione a priori. Se ad esempio sisbaglia il pre-set di calibrazione con macchinaimpostata per luce solare, ma con foto ripresasotto una luce ad incandescenza, tutto appa-rirà comunque rosso-giallastro.Al posto della pre-calibrazione si può adotta-re una tecnica di bilanciamento automaticodel bianco, ma in questo caso il problema di-viene molto più complesso da risolvere. Infat-ti, se si fa riferimento alla precedente eq. (3) èfacile intuire come una stessa superficie ven-ga acquisita in modo diverso se osservatosotto luci diverse, ma al contempo può avve-nire che superfici diverse osservate sotto lucidiverse vengono acquisite dalla fotocameracome se fossero dello stesso colore. In gene-re, perciò, le tecniche di bilanciamento auto-matico del bianco devono operare sulla basedi alcune ipotesi/assunzioni a priori.A seconda delle ipotesi fatte si hanno tecni-che diverse di bilanciamento automatico delbianco, e fra queste le più note vanno sotto inomi di: “Grey World”, “White Patch”, “GamutMatch”, “Retinex”.Nella tecnica “Grey World” si assume che lamedia dei colori di un’immagine (acquisitacon un’illuminazione “canonica”) sia il grigio,da cui il nome dell’approccio. La deviazioneda questa situazione è attribuita ad un’illu-minazione diversa da quella di riferimento. Ifattori di scala (costanti per tutta l’immagine)applicati alle componenti rossa, verde e bludi ogni pixel vengono calcolati per riportarsiquanto meglio possibile al “Grey World”.

M O N D O D I G I T A L E • n . 4 - d i c e m b r e 2 0 0 7

1

0

0

0

1

30

Page 12: STATO DELL’ARTE DELLA FOTOGRAFIA DIGITALEarchivio-mondodigitale.aicanet.net/Rivista/07_numero_4/Vannucchi p... · La fotografia digitale, grazie alle tecniche ICT, ha fatto in questi

La tecnica del “White Patch” assume inveceche i pixel più luminosi dell’immagine si riferi-scano alla ripresa di una superficie bianca (equindi corrispondano al colore dell’illuminan-te). In questo caso i fattori di scala applicati aitre canali di colore sono calcolati in modo dariportare la porzione di immagine considerataad essere del colore bianco “canonico”.Nel caso del “Gamut Match” invece si creal’istogramma tridimensionale delle compo-nenti RGB di ciascun punto immagine. Si tro-vano poi i fattori di scala per le componenticolore che portano tale istogramma ad averela forma più “canonica” possibile.Infine l’approccio “Retinex” (Retina + Cortex) sibasa, almeno concettualmente, sulle esperien-ze di Edwin Herbert Land (fondatore della so-cietà Polaroid, 1909 – 1991) sulle modalità di fun-zionamento del sistema visivo umano. Attra-verso di esse Land ipotizzò, infatti, che i mecca-nismi della visione nascano da una forte intera-zione fra retina e corteccia celebrale. Questa tec-nica di equalizzazione automatica dei colori sibasa sull’ipotesi che l’immagine possa esserevista come il prodotto fra una componente conlente variazioni spaziali (campo di illuminazio-ne) ed una a veloce variazione spaziale (campodelle riflettanze degli oggetti). Le veloci varia-zioni sono dovute alle brusche transizioni as-sociate al passaggio fra due oggetti diversi. At-traverso opportune tecniche statistiche si cercadi stimare (quindi separare) queste due com-ponenti, si procede poi ad una equalizzazionedel campo di illuminazione ed ad una successi-va ricostruzione delle immagini. L’uso dell’ope-ratore logaritmo semplifica la procedura tra-sformando i prodotti (campo di illuminazioneper campo di riflettività) in somme. La tecnicaRetinexviene spesso utilizzata anche come tec-nica di equalizzazione delle intensità delle im-magini e non solo delle informazioni cromaticheper mettere in risalto particolari altrimenti pocoo per nulla visibili.Nella figura 7 è riportato un esempio di cor-rezione cromatica per compensazione del-l’illuminante.All’atto pratico nessuna delle tecniche descrit-te, e delle molte altre presenti in letteratura, rie-sce a dare risultati “piacevoli” all’occhio umanoin tutte le circostanze. Le moderne fotocameredigitali, dotate di potenti processori, sulla basedi preset impostati ed attraverso tecniche di ana-

lisi di immagine, classificano le tipologie di fotoche si possono scattare (volto in primo piano,ripresa di gruppo, panorama di mare, panora-ma con predominanza di prati, foto notturneecc..). A seguire, caso per caso, si utilizzano tec-niche di equalizzazione diverse per ottenere leimmagini più gradevoli possibili.

5.2. Eliminazione dei pixel difettosie riduzione del rumore Le tecniche di “Defect Correction” hanno lo sco-po di correggere la modalità di funzionamentodei pixel che deterministicamente hanno unasensibilità minore o maggiore della media ri-spetto a quelli con funzionamento “normale”.Tali tecniche si basano su algoritmi legati all’a-nalisi del contesto “locale” (e cioè sull’informa-zione presente in un pixel e nel pixel immedia-tamente vicino). Le tecniche utilizzate si basanosu una tabella pre-calcolata che contiene la po-sizione dei pixeldifettosi oppure su algoritmi chedeterminano se alcuni pixel risultano difettosidurante la cattura dell’immagine (Figura 8).

M O N D O D I G I T A L E • n . 4 - d i c e m b r e 2 0 0 7

1

31

0

0

0

1FIGURA 7Effetto dell’applicazione di una tecnica di compensazione dell’illuminante

FIGURA 8Elaborazionedell’immagineper eliminare difettidei pixel

Page 13: STATO DELL’ARTE DELLA FOTOGRAFIA DIGITALEarchivio-mondodigitale.aicanet.net/Rivista/07_numero_4/Vannucchi p... · La fotografia digitale, grazie alle tecniche ICT, ha fatto in questi

Le tecniche di eliminazione dei pixel difettosiutilizzano massicciamente filtraggi non-li-neari di tipo “mediano”. Nel caso più sempli-ce un filtro mediano sostituisce il valore di in-tensità (o di componente di colore) di unpixel corrente con il valore mediano fra tuttiquelli associati ai pixel di una regione che cir-conda il pixel corrente. Tale regione (checomprende anche il pixel corrente) ha spessola dimensione di 3 × 3 pixel.Il passo successivo è rappresentato dalla ri-duzione del rumore statistico (Noise Reduc-tion). Tale tecnica viene anch’essa, come laprecedente, applicata direttamente nel do-minio del Bayer pattern perchè così facendo ipassi successivi possono beneficiare diun’immagine meno rumorosa.Il rumore può avere distribuzioni statistichediverse e cambia a seconda della luminositàdella scena. Le tecniche di riduzione del ru-more sono di tipo non lineare in quanto de-vono riuscire a distinguere le zone omoge-nee da quelle contenenti i contorni degli og-getti. Nelle prime il rumore risulta evidente equindi deve essere eliminato senza rimuove-re informazione significative, in particolare icontorni. Questi ultimi devono invece esserepreservati quanto più è possibile perchè rap-presentano il contenuto di informazione pre-sente nell’immagine.

6. COMPRESSIONEE FORMATI DI SALVATAGGIODELLE IMMAGINI

Come già accennato, i dati che formano le im-magini sono codificati ed ordinati sequen-zialmente per poi essere compressi in mododa salvarli agevolmente su una memoria. Lasemplice scrittura dei dati in aritmetica bina-ria con ordinamento sequenziale (formatonon compresso) richiederebbe infatti unospazio in memoria troppo grande. Se, ad esempio, desideriamo ottenere, in for-mato 3:2, un’immagine di 3.072 × 2.048 pixelè necessario adottare un sensore da circa 6Megapixel. Volendo memorizzare l’immaginein RGB e adottando 24 bit/pixel di dinamicacomplessiva (ossia 8 bit/pixel e quindi 256 li-velli di dinamica per ciascuna delle tre compo-nenti) si richiede, senza compressione, un’oc-cupazione di memoria di circa 18 Mbyte. Tale

occupazione sale a 24 Mbyte se si adottanoper la codifica binaria 11 bit, come spesso vie-ne richiesto in immagini professionali destina-te alla post elaborazione per rappresentareun numero più elevato di gradazioni di colore.Per ridurre l’ammontare di memoria richiestada ciascuna foto si ricorre ad algoritmi dicompressione che riducono la correlazionedei dati. A seconda della qualità desideratagli algoritmi di compressione posso essereloss-less, lossy e visually loss-less.Le tecniche di codifica loss-less prendono an-che il nome di codifiche entropiche e sono in-trinsecamente senza perdita (ovvero dai daticodificati è sempre possibile la ricostruzioneintegrale dell’immagine originale). Una buonacodifica entropica si basa su una rappresenta-zione ed ordinamento dei dati nel modo piùefficiente possibile, sfruttando le proprietàstatistiche che i dati medesimi possiedono inun’immagine reale. Su una foto reale ciò portaad una compressione dei dati di circa 2 volte.Con gli algoritmi lossy, dopo la decompres-sione, si ottiene invece un’immagine diver-sa dall’originale, ma che risulta “accettabi-le” all’utente finale. A questa classe appar-tengono anche gli algoritmi di compressio-ne visually loss-less con i quali si ottengonodelle differenze tra originale e decodificatoche non sono visibili attraverso l’ispezionevisiva, ma solo attraverso comparazione nu-merica. Un esempio di visually loss-less ècostituito dal passaggio da uno spazio dicolore RGB a quello delle luminanze e cro-minanze, seguito dal sottocampionamentodelle crominanze perché queste vengonopercepite in maniere ridotta dal sistema vi-sivo umano. A seconda delle codifiche ado-perate si perviene ad una compressione deidati pari a 1,5 volte (nel cosiddetto formato4:2:2) od a 2 (nel formato 4:2:0).Le tecniche universalmente usate, con mol-te differenti varianti, per una forte compres-sione sono però quelle basate su opportu-ne “trasformate” seguite da quantizzazionee codifica entropica, processo che, nel suocomplesso, elimina le irrilevanze e le ridon-danze dell’immagine. Queste tecniche por-tano ad un risparmio pari ad un fattore di20-30,, pur mantenendo una buona qualità.Un esempio di risultato di compressione los-sy è dato nella figura 9 per la fotografia di un

M O N D O D I G I T A L E • n . 4 - d i c e m b r e 2 0 0 7

1

0

0

0

1

32

Page 14: STATO DELL’ARTE DELLA FOTOGRAFIA DIGITALEarchivio-mondodigitale.aicanet.net/Rivista/07_numero_4/Vannucchi p... · La fotografia digitale, grazie alle tecniche ICT, ha fatto in questi

francobollo ed ove è utilizzata una compres-sione di tipo JPEG.Il formato di compressione più noto ed adot-tato nel campo della fotografia digitale è ilJPEG, basato sulla DCT (Discrete Cosine Tran-sform), ormai universalmente utilizzato nelcampo del visually loss-less e che adotta loschema di elaborazione riportato in modoschematico nella figura 10.Lo standard JPEG ha rivoluzionato, dagli anni‘80 in poi, il trattamento delle immagini apren-do la strada alla diffusione della fotografia di-gitale. Regolando il rapporto di compressionesi può ottenere una qualità visually loss-less,rappresentando una foto reale con 2 ÷ 4bit/pixel. Se, si aumenta il rapporto di com-

pressione (pur mantenendo l’immagine accet-tabile) si ottiene una qualità lossy che può es-sere rappresentata con 1 bit/pixel o meno.È opportuno notare che, a parità di fattore dicompressione, si può ottenere una qualità di-versa per tipi di immagini differenti. In parti-colare possono comparire, in alcuni casi, i co-siddetti “artefatti” tipici della compressionea blocchi basata sulla trasformata DCT, qualel’effetto di “blocchettamento” dell’immagineed il cosiddetto ringing attorno ai contorni. Leprestazioni delle tecniche di compressionesono, infatti, fortemente dipendenti dall’en-tropia dei dati da comprimere.Per ovviare a tutto ciò ed ottenere una mi-gliore qualità sono state sviluppate delle tec-

M O N D O D I G I T A L E • n . 4 - d i c e m b r e 2 0 0 7

1

33

0

0

0

1

Non Compressa768 ×× 1024 pixel

24 bit/pixel2,4 Mbyte

Compressa lossy768 ×× 1024 pixel

80 kbyteFattore di compressione = 30

Immagine della differenza(le parti perdute, ma non rilevanti,

dell’immagine originale)

FIGURA 9Esempio di compressione (30 volte) della fotografia di un francobollo.(Si può notare che l’informazione persa con la compressione JPEG riguarda essenzialmente i contorni degli "oggetti". Tuttavia la

qualità finale rimane più che accettabile per un uso amatoriale)

Immagine decomposta in matricidi componenti cromatiche

Matricidi quantizzazione

TrasformataDCT

a blocchi 8 ×× 8

Quantizzazione deicoefficenti trasformati

Scrittura in memoria

Codifica entropica deicoefficenti quantizzati

FIGURA 10Schema di elaborazione digitale operato dalla compressione JPEG

Page 15: STATO DELL’ARTE DELLA FOTOGRAFIA DIGITALEarchivio-mondodigitale.aicanet.net/Rivista/07_numero_4/Vannucchi p... · La fotografia digitale, grazie alle tecniche ICT, ha fatto in questi

niche che permettono, a parità di fattore dicompressione, di selezionare i parametridell’encoder a seconda del tipo di immagine. In aggiunta allo standard JPEG è stato svilup-pato e proposto il nuovo standard JPEG-2000, molto più flessibile (in cambio di unamaggiore complessità realizzativa) del JPEG,che tuttavia al momento non ha ancora trova-to la “killer application” sul mercato.In sintesi i formati normalmente usati nellefotocamere digitali per il salvataggio delleimmagini sono:❑ BMP: formato di salvataggio poco utilizza-to poiché il file è di dimensioni piuttosto ele-vate in cui le immagini possono essere salva-te a 16, 24 e 32 bit/pixel senza nessun tipo dicompressione;❑ TIFF: formato in grado di salvare immaginisenza perdita d’informazioni in uno spaziorelativamente contenuto di compressione;❑ JPEG: il più usato nelle fotocamere anchese è del tipo lossy (e pertanto con perdita diinformazioni);❑ RAW: formato “grezzo” utilizzato dai pro-fessionisti che sta ad indicare che l'immaginecatturata dal sensore CCD o CMOS della mac-china fotografica non viene processata in nes-sun modo dalla fotocamera, a parte la conver-sione Analogico/Digitale. Le immagini vengo-no ricomposte e regolate in quanto a profon-dità colore con potenti programmi per PC edinfine convertite in uno qualsiasi dei formaticonosciuti. I file RAW, partendo dai dati grezzi,consentono di apportare in un secondo mo-mento dei miglioramenti significativi alla qua-lità dell'immagine scattata, riportandosi allecondizioni iniziali di scatto. Si può, per esem-pio, aggiustare il bilanciamento del bianco, ri-durre eventuali aberrazioni cromatiche degliobiettivi, ottimizzare l'esposizione ecc.. I fileRAW hanno anche una grande profondità cro-matica (fino a 16 bit per photodetector ossia48 bit per i tre canali di colore) che permetto-no “lavorazioni” anche sostanziali sulle im-magini senza alterarne la qualità.La scrittura e lettura dei file in formato RAW èmolto più lenta rispetto a quella in formatoJPEG per la maggiore quantità di dati da scri-vere, rendendo difficoltosa la loro archivia-zione e la loro successiva visione. Alcuni pro-duttori di fotocamere digitali hanno inserito ildoppio formato di registrazione negli appa-

recchi. Questo consente di leggere l'immagi-ne registrata in formato JPEG con una buonavelocità (per esempio, nelle operazioni di se-lezione ed archiviazione delle immagini),mentre è sempre possibile poter utilizzare ilformato RAW per le elaborazioni complesse.Per elaborare un file RAW al computer occorreevidentemente un software adeguato che, tral’altro, compie anche tutte le operazioni delprocessore d’immagine della fotocamera.Nelle fotocamere, i file rappresentanti le im-magini vengono immagazzinati in memorieEProm di tipo Flash, gestibili dall’utente.Quelle oggi utilizzati dalle case costruttrici di fo-tocamere digitali sono principalmente:• Compact flash; • Memory Stick;• Microdrive;• MultiMedia (MMC); • SD (secure digital);• SmartMedia;• e Fuji.A conclusione di questo quadro è opportunonotare che il vantaggio di un formato standardper i file d’immagine è anche quello di pro-muovere l’interoperabilità di dispositivi diver-si (Camere, PC, Lettori DVD, Stampanti ecc).

7. CONCLUSIONI

Per quanto riguarda i sensori, le modernemacchine fotografiche hanno raggiunto or-mai dimensioni pari a molti Megapixel a con-fronto della fovea dell’occhio umano che ha“solo” 337.000 sensori. Ciononostante ilconfronto più significativo va fatto con la pel-licola per permettere gli stessi ingrandimentidei “particolari” di una fotografia. E solo re-centemente i sensori hanno raggiunto, a co-sti accettabili, una definizione paragonabilea quella della pellicola.I successivi processamenti dei dati fotografi-ci applicati dai diversi costruttori di macchinefotografiche e così pure le elaborazioni con iprogrammi di fotoritocco portano, come già èstato accennato in precedenza, a quello chenoi “vogliamo vedere” in termini di resa e sa-turazione cromatica e non corrispondonosempre alla realtà oggettiva.Nel campo prosumer, le due grandi famiglie disensori (CCD e CMOS) stanno man mano avvi-cinandosi come caratteristiche ed i secondi

M O N D O D I G I T A L E • n . 4 - d i c e m b r e 2 0 0 7

1

0

0

0

1

34

Page 16: STATO DELL’ARTE DELLA FOTOGRAFIA DIGITALEarchivio-mondodigitale.aicanet.net/Rivista/07_numero_4/Vannucchi p... · La fotografia digitale, grazie alle tecniche ICT, ha fatto in questi

permettono di traguardare a costi minori edad una migliore integrazione monolitica.Interessanti da seguire l’evoluzione del sen-sore Foveon che maggiormente assomigliaall’occhio umano, anche se ha ancora pro-blemi di passaggio della luce attraverso glistrati di silicio.Sempre nell’interessante segmento del mer-cato prosumer delle fotocamere sono moltointeressanti le ottiche compatte e leggere chesi riescono a realizzare, nate a seguito dellaintroduzione dei sensori che normalmentehanno una minor dimensione rispetto al foto-gramma della pellicola, anche se tali otticherimangono inferiori a quelle intercambiabili.Nella tabella 1 è riportato un confronto dellecaratteristiche di diversi segmenti di mercatodelle moderne fotocamere digitali per avereun quadro comparativo delle prestazioni at-tuali (dimensioni, consumo, costo...).Dal punto di vista del mercato, impressionanteè la crescita della penetrazione dei sensori di im-magine nel mercato dei camera phones con pos-sibilità di acquisire foto e video. Si vuole foto-

grafare ogni attimo della nostra vita e della vi-ta di tutti in tempo reale. Si vive nella civiltà del-l’immagine reale, ma il rischio è di non imma-ginare più nulla e di vedere solo quello che te-lefoni o macchine fotografiche registrano.A seguito dell’evoluzione della tecnologia,anche la macchina fotografica “seria” sta di-ventando un prodotto di consumo ad obsole-scenza rapidissima, a causa dell’introduzio-ne di sempre maggiori risoluzioni ed ad altrediverse funzionalità (panorama, riduzioneocchi rossi, antishake ecc.).Tutto ciò può lasciare disorientato il consu-matore e solo una buona conoscenza dellatecnologia delle fotocamere digitali e delleproprie esigenze (in termini di risoluzione efunzionalità) permette di fare delle scelteoculate ed oggettive.La fotografia digitale offre anche immensepossibilità che però non vengono ancorasfruttate nella maggioranza dei casi perché ètuttora limitato il numero di persone che, puressendo i programmi software da impiegareassai frendly, si dedicano alla successiva fa-

M O N D O D I G I T A L E • n . 4 - d i c e m b r e 2 0 0 7

1

35

0

0

0

1

Segmenti Tipi di sensore Risoluzione Ottica Prestazioni Range di costodi mercato sensore

DSC CCD Bayer AF-TTL 5-PointsLow-End Size 5.76 × 4.29 mm 3–5 Mpixel 35 mm (equivalente) VGA video < 200 $

3 µm pixel size Optical zoom 3-4x Multi-Shot 1.5 FPS

DSC CCD Bayer AF-TTL 9-pointsHigh- End Size 7.6 × 5.7 mm 5-12 Mpixel 35 mm (equivalente) XGA video

5 µm pixel size Optical zoom 3-4x Multi-Shot 2.5 FPS 300-500 $Image Stabilisation

Face Tracking

SLR CCD / CMOS Bayer AF Multi-Basis TTL, 9-pLow-End Size: 18 × 13.5 mm - 10 Mpixel Separate Optics Advanced AWB & AEC

- 23.7 × 15.5 mm (optical stabilisation) Multi-Shot 3 FPS - RAW < 1.000 $5.7 µm pixel size Sensor Dust Removal

Low Noise

SLR CMOS Bayer/ AF Multi-Basis, 45-PHigh-End Multi-Layer Separate Optics Advanced AWB & AEC

Full size: 36 × 24 mm 21 Mpixel (Optical Stabilisation) Multi-Shot 8.5 FPS-RAW6.4 µm pixel size Cleaning System 1.000-9.000 $

FULL Params ControlVery Low Noise

Wireless Connection

Segmenti: DSC: “Digital Still Camera” - SLR: “Sigle Lens Reflex” - Low End: fascia bassa; High End: fascia altaAltri nomiI: Bayer (vedi paragrafo 5.3); AF-TTL: “Auto Focus Trough The Lens”; AWB: “Automatic White Balamce”

TABELLA 1Confronto di caratteristiche e costi nel mercato delle fotocamere digitali

Page 17: STATO DELL’ARTE DELLA FOTOGRAFIA DIGITALEarchivio-mondodigitale.aicanet.net/Rivista/07_numero_4/Vannucchi p... · La fotografia digitale, grazie alle tecniche ICT, ha fatto in questi

se della elaborazione che è importante percreare un’immagine.A tale proposito, si può infine aggiungere unaconsiderazione sulla fotografia artistica inquanto la moderna tecnologia ICT di proces-samento delle immagini offre possibilità chela fotografia analogica non offriva. Ora il foto-grafo, attraverso il fotoritocco, ha la possibi-lità di creare immagini intervenendo sul cro-matismo, l’inquadratura, la saturazione dei

colori, il contrasto e realizzando così quelloche la sua cultura, le sue emozioni, la sua vi-sione degli eventi e delle situazioni gli sugge-riscono. Può abbandonare vecchi schemi met-tendosi continuamente in discussione e speri-mentare nuove strade.Dal complesso di queste brevi considerazioniconclusive si può pertanto affermare che lafotografia digitale è una vera rivoluzione an-ziché una semplice evoluzione.

M O N D O D I G I T A L E • n . 4 - d i c e m b r e 2 0 0 7

1

0

0

0

1

36

Color matchingUn osservatore, con un sistema visivo che rientra nella media, percepisce la stessa sensazione di co-lore (color match) guardando un colore di test oppure la somma di tre colori primari opportunamentedosati. Questa corrispondenza esiste anche per colori monocromatici caratterizzati da una specificalunghezza d’onda.In ogni caso i tre primari possono essere monocromatici, come è il caso della figura A1.1, o caratteriz-zati da un loro spettro, e vengono fissati dal CIE (Commission Internationale de l’Eclairage), come ri-chiamato nella successiva Appendice 2.Sperimentalmente, in un banco di prova con più osservatori, è stata valutata l’equivalenza di una luce di te-st monocromatica con la som-ma pesata di tre primari Rosso,Verde e Blu (Figura A1.1). Il valo-re medio delle sensazioni degliosservatori sulle pesature dàluogo, in funzione della lun-ghezza d’onda del colore di te-st, a tre curve definite “ColorMatching Function”.Le funzioni r (λ), g (λ), b (λ) mi-surano i cosiddetti valori (o com-ponenti) di tristimolo dei prima-ri che realizzano l’equivalenza conil colore di test per ciascuna lun-ghezza d’onda esaminata. Valo-ri negativi delle “Color MatchingFunction” equivalgono a dire chenon esiste, per quel campo di va-lori di lunghezza d’onda, un’e-quivalenza tricromatica nel sen-so fisico della parola, ma una del-le luci primarie va sommata allaluce di riferimento per ottenerel’equivalenza percettiva (cfr, eq.(1) e (2) del testo che riassumonole leggi di Grassman). Conse-guenza di ciò è che non tutti i pos-sibili colori possono essere rap-presentati a partire da un set ditre soli primari.

AAppppeennddiiccee 11

Figura A1.1 In questa figura le “Color Matching Functions” rappresentano, sull’assedelle ordinate, le entità (“valori di tristimolo”) di tre luci primarie monocromatiche(Rosso, Verde e Blu con lunghezze d’onda standardizzate rispettivamente di 700, 546 e436 nm) necessarie per l’equivalenza ad un colore di test monocromatico la cuilunghezza d’onda λ è quella indicata nella scala delle ascisse. Valori negativi di una dellecurve di tristimolo indicano la necessità di addizionare il relativo primario al colore di testper avere l’’equivalenza.Le tre curve di questa figura (denominate “CIE-1931-RGB Color Matching Functions”)sono normalizzate in modo da avere tutte e tre la stessa area.

0.40

0.30

0.20

0.10

0.00

–0.10400 500 600 700

λ

r– (λ)g– (λ)b–

(λ)

Page 18: STATO DELL’ARTE DELLA FOTOGRAFIA DIGITALEarchivio-mondodigitale.aicanet.net/Rivista/07_numero_4/Vannucchi p... · La fotografia digitale, grazie alle tecniche ICT, ha fatto in questi

M O N D O D I G I T A L E • n . 4 - d i c e m b r e 2 0 0 7

1

37

0

0

0

1

Spazi cromaticiLe curve indicate nella figura A1.1 dell’Appendice 1, caratterizzate da primari monocromatici alle lunghez-ze d’onda di 700 nm (rosso), 546.1 nm (verde) e 435.8 nm (blu), sono quelle storiche derivate dagli espe-rimenti di D. Wright e J. Guild alla fine degli anni ’20 e recepiti in ambito CIE(Commission Internazionalede l’Eclairage) nel 1931 con il nome di “Color Matching Function CIE-1931-RGB”). Questo spazio, anche senon è in grado di rappresentare tutti i colori, ha un gamut sufficientemente esteso.Esistono molteplici spazi cromatici in cui poter rappresentare le informazioni di crominanza, ciascunodei quali possiede proprie peculiarità.Oltre lo spazio CIE-1931-RGB, è significativo ricordare lo spazio sRGB, leggera modifica dello spazio pre-cedente, utilizzato attualmente per rappresentare i colori associati alle immagini acquisite dalle moder-ne fotocamere digitali in cui l’illuminante di riferimento è il D65 (luce bianca di riferimento definita dalCIE per rappresentare la luce solare indiretta) e che include una correzione gamma delle componenti dicolore per favorire un rendering sui monitor che sono dispositivi di riproduzione fortemente non-lineari.Il gamut è sufficiente ampio e questo spazio è diventato uno standard de-facto (la s di sRGB sta per stan-dard) per le fotocamere digitali con presentazione delle immagini su monitor da computer.La rappresentazione di tutti i colori è invece raggiunta nello spazio C.I.E. XYZ derivato matematicamente daquello visto in precedenza e che, tuttavia, possiede dei primari non fisicamente realizzabili. Poiché lo scopoera quello di un metodo di rappre-sentazione matematica efficace pertutti i colori, questo limite non devepreoccupare più di tanto.In generale il passaggio fra unospazio di colore ed un altro avvie-ne attraverso una trasformazionelineare (moltiplicazione del vettorea tre dimensioni che rappresentaun colore per una matrice 3 × 3 op-portunamente definita).Quando si vogliono rappresentare icolori in uno spazio che sia indipen-dente dal particolare dispositivo diacquisizione o restituzione si fa in ge-nere riferimento al cosiddetto spazioXYZ. Al contrario di quanto accadutoper la definizione delle Color Mat-ching Function (CMF) nel sistemaRGB, le CMF dello spazio XYZ (ripor-tate nella Figura A2.1) non sono sta-te individuate tramite esperimentipsicovisivi bensì attraverso una tra-sformazione delle corrispondenti curve del sistema RGB misurate nel 1931. La trasformazione utilizzata è sta-ta individuata, andando alla ricerca di primari che potessero soddisfare alle seguenti condizioni:a) fare in modo che le Color Matching Function XYZ non avessero valori negativi, caratteristica neces-saria per soddisfare il requisito di riproducibilità di tutta la gamma dei colori nella fascia del visibile;b) valore di tristimolo Y scelto in modo tale da essere equivalente alla luminanza del colore rispetto cuiottenere equivalenza visiva;c) coordinate del bianco equienergetico nel triangolo dei colori (vedi dopo Figura A2.2) pari ad 1/3 perle tre coordinate.È possibile rappresentare le informazioni contenute nei valori di tristimolo XYZ in maniera non assoluta,ma normalizzate in un campo di valori che va da 0 a 1, utilizzando le coordinate cromatiche (o coefficien-ti di tristimolo) x, y, z. Queste ultime sono legate ai valori assoluti delle componenti di tristimolo tramitele seguenti relazioni:

xX

X Y Z

yY

X Y Z

zZ

X Y Z

=+ +

=+ +

=+ +

AAppppeennddiiccee 22

Figura A2.1 “Color Matching Functions” per i primary CIE-XYZ (non fisicamenterealizzabili)

2.0

1.5

1.0

0.5

0.0400 500 600 700

λ (nm)

x– (λ)

y– (λ)

z– (λ)

Page 19: STATO DELL’ARTE DELLA FOTOGRAFIA DIGITALEarchivio-mondodigitale.aicanet.net/Rivista/07_numero_4/Vannucchi p... · La fotografia digitale, grazie alle tecniche ICT, ha fatto in questi

M O N D O D I G I T A L E • n . 4 - d i c e m b r e 2 0 0 7

1

0

0

0

1

38

Dalle precedenti relazioni segue che:

x + y + z = 1

Si noti che poiché la somma di questi coefficienti vale 1, sono sufficienti due di essi, per esempio, x ey, per definire una luce monocromatica, in quanto il terzo si ricava per complemento a 1.Poiché le coordinate di cromaticità risultano linearmente dipendenti, dallo spazio (x, y, z) non si è in grado dirisalire alle coordinate (X, Y, Z). Per questa ragione si considera equivalente al sistema di riferimento XYZ quel-lo costituito dalla luminanza Y e da due coordinate di cromaticità, in particolare x e y (CIE-xyY). In questo mo-do si tende a separare l’informazione di intensità (luminanza) rispetto alle informazioni di colore (cromaticità).Nella figura A2.2 è rappresentato il diagramma di cromaticità, denominato triangolo dei colori, otte-nuto considerando le sole coordinate (x, y).La linea curva superiore è nota con il nome di spectrum locus e rappresenta il luogo dei punti di x e y cor-rispondenti a luci monocromatiche pure (righe spettrali). La linea retta tracciata alla base del “ferro di ca-vallo” rappresenta invece i valori x, y corrispondenti a qualunque combinazione tra 0 e 100% del rosso edel blu. Questa linea viene definita la purple line dal momento che lo stimolo ottenuto è di varie grada-zioni del colore purpureo.Tutti i colori sono rappresentabili come punti interni allo “spectrum locus” e la zona centrale rappre-senta il bianco. La posizione di ogni punto (colore) sulla retta che lo congiunge con il bianco puro ri-spetto all’intersezione con la curva dà la saturazione del colore considerato, mentre le variazioni an-golari del fascio di rette che partono dal bianco dà la variazione di tinta. Per la rappresentazione del-l’intensità del colore occorrerebbe sfruttare anche la terza dimensione.Tutti i colori visibili hanno nello spazio xy una rappresentazione che cade all’interno dell’area definitadallo spectrum locus e dalla purple line. Nello spazio xy sono rappresentate le informazioni cromati-che associate ad un particolare colore, mentre le informazioni di intensità sono associate a Y.Per le fotocamere digitali, nel caso di utilizzo del sistema di primari RGB, già menzionato poco sopra,la rappresentazione del “gamut” del sistema nello spazio xy è descrivibile unendo i valori di lunghez-za d’onda di tali primari che danno luogo al triangolo con linea continua della figura A2.2.

Figura A2.2 Triangolo dei colori nello spazio x,y (spectrum locus) con E punto del bianco.La linea curva, a ferro di cavallo, soprastante il segmento B-R rappresenta i colori monocromatici puri,mentre il segmento B-R (detto“purple line”) rappresenta tutte le combinazioni del Rosso e del Blu. I verticidel triangolo RGB rappresentano i primari CIE-1931. L’area interna al triangolo rappresenta il “gamut” deicolori riproducibili con tali primari. Il punto E è la rappresentazione del bianco puro. Il diagramma mostracome colori monocromatici nell’intervallo 440-550 nm non sono riproducibili in tricromia in quanto esterni“al gamut” del sistema di primari RGB scelti (come risulta anche da Figura A1.1)

Page 20: STATO DELL’ARTE DELLA FOTOGRAFIA DIGITALEarchivio-mondodigitale.aicanet.net/Rivista/07_numero_4/Vannucchi p... · La fotografia digitale, grazie alle tecniche ICT, ha fatto in questi

BibliografiaSulla colorimetria:

[1] Hunt R.W.G.: Measuring Color. Fountain Pr Ltd;3-rd edition, 2001.

[2] Wyszecki G., Stiles W.S.: Color Science: Con-cepts and Methods, Quantitative Data and For-mulae. Wiley-Interscience - 2-nd edition, 2000.

[3] IEEE Signal Processing Magazine: Special Issueon Color Image Processing. January 2005.

Sui sensori:

[5] Litwiller Dave: CCD vs. CMOS: facts and fiction.Photonics Spectra, January 2001.

Sul processamento dei colori nelle fotocameredigitali:

[6] Gunturk B.K., Glotzback J., Altunbasak Y., Schaf-fer R.W, Mercerau R.M.: Demosaicing: Color Fil-ter Array Interpolation. IEEE Signal ProcessingMagazine, January 2005.

Sui vari tipi di processamento nelle fotocameredigitali:

[7] Kawamura S.: Capturing Images with DigitalStill Cameras. IEEE Micro, December 1998.

[8] AAVV: Image Processing for Digital Still Camera.ST Journal of System Research, Dec. 2001.

M O N D O D I G I T A L E • n . 4 - d i c e m b r e 2 0 0 7

1

39

0

0

0

1

MASSIMO MANCUSO, laureato con lode in Ingegneria Elettronica all’Università di Palermo nel 1990. Inizia la car-riera professionale al COMILITER (Consorzio per la Ricerca Microelettronica nel Mezzogiorno) occupandosi dielaborazione di immagini. Dal 1994 è in STMicroelectronics con responsabiltà sulla definizione di metodolo-gie ed architetture per i dispositivi di cattura d’immagini. Dal 2004, operando nella sede di Agrate di STM, èDirettore del Team di Ricerca su “Imaging Rendering and Human Machine Interaction” nel Gruppo “AdvancedSystem Technology”.È autore di diversi brevetti ed articoli nel campo dell’Image -Video Processing.E-mail: [email protected]

STEFANO TUBARO è Professore Straordinario di Telecomunicazioni presso il Dipartimento di Elettronica e Infor-mazione del Politecnico di Milano (DEI-PoliMi). Svolge attività di ricerca nell’ambito dell’elaborazione nume-rica dei segnali, in particolare mono e bidimensionali (audio ed immagini).Coordina le attività del gruppo ISPG (Image and Sound Processing Group) presso il DEI-PoliMi e partecipa(anche in veste di coordinatore) a numerosi progetti di ricerca finanziati dal Governo Italiano, dalla Commis-sione Europea e da enti industriali.Autore di più di 200 contributi a congressi e riviste internazionali e di numerosi brevetti.E-mail: [email protected]

GUIDO VANNUCCHI, laurea in Ingegneria Industriale all’Università di Bologna nel 1958, “Master Science EE” allaStanford University nel 1963, Libera Docenza in Comunicazioni Elettriche nel 1971.Direttore Generale Telettra dal 1983 al 1990, “Senior Consultant” di Olivetti Telemedia, Vice Direttore Genera-le della RAI dal 1996 al 1998. Attualmente Docente al Politecnico di Milano di “Architetture per reti e sistemimultiservizio” e Presidente Associazione AEIT.Laurea “ad honorem” in Ingegneria delle Telecomunicazioni, conferita dall’Università di Padova nel 1998, peri contributi scientifici e manageriali nel campo della trasmissione dei segnali. E-mail: [email protected]