Per fotografia digitale si intende il procedimento che consente di ottenere immagini mediante tecnologie elettroniche direttamente in forma digitale e di memorizzarle su un supporto magnetico, ottico o elettronico.

I metodi più comuni per ottenere fotografie digitali consistono nell’effettuare la scansione di un’immagine (stampata oppure sotto forma di negativo o diapositiva) con uno scanner d’immagini oppure di effettuare uno scatto con una fotocamera digitale.

Sensori

Vi sono due tipi principali di sensori; CCD (Charge Coupled Device) CMOS (Complementary Metal Oxide Semiconductor)

Ci sono anche due tipi possibili di lettura dei segnali elettrici in uscita dai sensori: Area array Linear array

Un sensore area array legge l’intera immagine, mentre un sensore linear array lavora con modalità simile a quella di uno scanner.

Funzionalità e connettività

Fatta eccezione per alcuni modelli del tipo linear array (in fascia alta) e per le webcam (in fascia bassa), viene utilizzata una memoria digitale (di solito una memory card; i floppy disk e i CD-RW sono molto meno comuni) per memorizzare le immagini, che possono essere trasferite su PC in seguito.

La maggior parte delle macchine fotografiche digitali permettono di realizzare filmati, talvolta con sonoro. Alcune possono essere utilizzate anche come webcam, altre supportano il sistema PictBridge per connettersi direttamente alle stampanti, altre ancora possono visualizzare le fotografie direttamente sul televisore. Quasi tutte includono una porta USB o FireWire port e uno slot per memory card.

Alcune possono registrare filmati, con la limitazione della memoria disponibile. Una memory card da 1 GB può memorizzare approssimativamente un’ora di video in formato MPEG-4. I modelli più recenti possono catturare fotogrammi ad una frequenza di 30 immagini/secondo con una risoluzione di 640×480 pixel. Alcune possono registrare l’audio in stereo, ed essere comandate in remoto dal PC, e ovviamente, memorizzare i video sull’hard disk o su DVD tramite il masterizzatore.

Nei paragrafi che seguono la discussione verterà primariamente sulla fotografia digitale come prodotto di riprese con fotocamera digitale.

Prestazioni

La qualità di una foto digitale prodotta da una fotocamera digitale è la somma di svariati fattori, alcuni riconducibili alle macchine fotografiche reflex. Il numero di pixel (di solito indicato in megapixel, milioni di pixel) è solo uno dei fattori da considerare, sebbene sia di solito quello più marcato dalle case di produzione.

Il fattore più critico è comunque il sistema che trasforma i dati grezzi (raw data) in un’immagine fotografica.Da considerare vi sono anche, ad esempio: la qualità delle ottiche: distorsione (aberrazione sferica), luminosità, aberrazione cromatica… (vedi Lente o Obiettivo fotografico) il sensore utilizzato: CMOS, CCD, che fra l’altro gioca un ruolo centrale nella ampiezza della gamma dinamica delle immagini catturate, … il formato di cattura: numero di pixel, formato di memorizzazione (RAW, TIFF, JPEG, …) il sistema di elaborazione interno: memoria di buffer, algoritmi di elaborazione immagine, …)

Numero di Pixel e qualità delle immagini

L’analisi del rapporto fra numero di pixel e qualità delle immagini è uno dei temi centrali per capire quali sono gli elementi che danno valore ad una fotocamera digitale ed alle fotografie da essa prodotte. Si cercherà dunque di dare quelle informazioni che permettono di condurre un’analisi dei fattori di qualità di un’immagine digitale.

Il numero dei pixel è un parametro che sta ad indicare la risoluzione (cioè è un indicatore del più piccolo dettaglio della scena fotografata e registrato dalla fotocamera digitale). Questo è uno dei fattori che determina la nitidezza dell’immagine.

Per valutare la qualità complessiva dell’immagine, oltre alla dimensione del dettaglio fotografabile (tanto più piccolo, quanto più grande è la risoluzione), occorre invocare numerosi altri fattori, come la fedeltà cromatica di ogni pixel (infatti il pixel contiene il valore che esprime il preciso colore del particolare elementare dell’immagine che esso rappresenta – vedi il paragrafo sulla “fedeltà cromatica-profondità colore”) e la qualità delle ottiche e dei sensori.

In un’immagine digitale il numero di pixel viene calcolato semplicemente moltiplicando il numero di pixel della base dell’immagine per il numero di pixel dell’altezza. Ad esempio un’immagine di 1,92 Megapixel (equivalenti a 1.920.000 pixel) sono il risultato di un’immagine di 1600×1200 pixel. Il megapixel, letteralmente “milioni di pixel” è un multiplo del pixel (mega=1 milione), unità di misura adeguata ed utile a comprendere la quantità totale di pixel presenti nel sensore. Il valore indicato è comunque approssimativo in quanto una parte dei pixel (in genere quelli periferici del sensore) servono al processore d’immagine per avere informazioni sul tipo di esposizione (ad esempio sulla luminosità della scena) e ricoprono in pratica il ruolo di “pixel di servizio”. Dunque un sensore può essere dotato di 9,2 megapixel, ma registrare immagini di 9,10 megapixel (senza approssimazione i valori potrebbero essere 9.106.944 pixel, che corrispondono ad un’immagine di 3.488 x 2.616 pixel). La maggior parte delle macchine fotografiche digitali compatte è in formato 4:3 (1600×1200, 800×600, …). Mentre nelle reflex digitali (DSLR=Digital Single Lens Reflex) e in alcune fotocamere compatte (con obiettivo non intercambiabile) di fascia alta (“SLR-like” o anche chiamate “prosumer”) si può impostare sia il formato 4:3, sia il rapporto classico 3:2 delle fotocamere a pellicola.

Per quanto riguarda i sensori va detto che gli indici di qualità sono almeno i seguenti: capacità di produrre immagini di alta qualità velocità di cattura delle immagini.

Un approfondimento delle caratteristiche che attribuiscono qualità ai sensori si trova nel paragrafo “Il sensore” della voce correlata fotocamera digitale.

Come anticipato sopra, occorre fare delle distinzioni concettuali fra alcuni elementi che costituiscono il sensore per analizzare alcuni fattori di qualità della fotografia digitale ed anche per capire il sistema fotografico digitale. Pertanto le descrizioni che seguono relative a photosite, elemento unitario fotosensibile (o photodetector’) e pixel si ritengono necessarie per chiarire, sia la modalità di funzionamento dei vari tipi di sensori usati in fotografia digitale, sia per evitare confusione e quindi fraintendimenti sulla reale risoluzione delle immagini prodotte con i vari sensori. La risoluzione è infatti uno dei fattori più evidenziati nelle caratteristiche delle fotocamere digitali, ma dalla analisi delle caratteristiche tecniche, sia di fotocamere, sia specificamente di sensori, questa distinzione non è sempre chiaramente ed univocamente dichiarata. Nelle specifiche tecniche, probabilmente per ragioni di marketing, non distinguere pixel da photodetector consente di indicare valori numerici maggiori, fatto, questo, che forse si ritiene abbia più efficacia in termini di comunicazione commerciale.

Il photosite Per comprendere i fattori che determinano la qualità delle immagini dal punto di vista del sensore occorre considerare specifici elementi tecnologici dei sensori che impongono la introduzione del concetto di “photosite” (che può essere definito come “luogo di cattura del più piccolo dettaglio dell’immagine”).

Distinguere photosite da pixel Il pixel è un concetto informatico, che appartiene quindi alla categoria del software e il suo contenuto informativo è un gruppo di dati che descrive le caratteristiche cromatiche del più piccolo dettaglio dell’immagine. Tale proprietà permette quindi, componendo molti pixel, di formare l’intera immagine.Mentre il “photosite” è un luogo fisico. Si tratta di uno spazio con uno o più elementi fotosensibili a semiconduttore che sono in grado di trasformare un flusso luminoso in una determinata quantità di cariche elettriche. Nel photosite inoltre è presente generalmente un microscopico sistema ottico che sovrasta il photodetector formato da un piccolo cristallo con forma a calotta quasi-sferica avente la funzione di catturare la maggior parte di luce possibile di quella incidente sulla superficie del sensore. Talvolta questo cristallo (o resina trasparente) è un elemento unitario colorato “R” o “G” o “B” del filtro Bayer, il cosiddetto C.F.A. (Color Filter Array).

Il photosite è inoltre la parte unitaria di un luogo più ampio che è chiamato generalmente sensore. Le caratteristiche del photosite permettono di capire, sia dal punto di vista elettrico, sia da quello ottico, il modo con cui vengono catturati i singoli elementi che formano le immagini.

L’elemento unitario fotosensibile (photodetector) La funzione dell’elemento fotosensibile (chiamato anche photodetector) è quella di trasformare un flusso luminoso in un segnale elettrico di intensità proporzionale alla intensità del flusso luminoso in quel punto. In entrambe le tecnologie (CCD e CMOS) l’elemento unitario fotosensibile riesce dunque a registrare solamente livelli di intensità di luce monocromatica.

Poiché ogni colore può essere riprodotto dalla mescolanza di tre componenti primarie della luce (rosso, verde, blu – RGB), dall’elemento unitario fotosensibile occorre ottenere un segnale elettrico relativo alla componente R o alla componente G o a quella B. Questo lo si ottiene filtrando la luce che investe l’elemento fotosensibile con filtri ottici in modo che su di esso giunga solamente la componente desiderata. Questo principio vale per tutte le tecnologie costruttive e per tutte le tipologie di sensori.

Nelle fotocamere digitali possiamo trovare sensori aventi photosite che hanno un solo photodetector, due o tre photodetector. Poiché ogni pixel, come si può comprendere nel paragrafo successivo, deve contenere informazioni, dati, su ognuna delle tre componenti primarie della luce, è evidente che se in un photosite si trova un solo photodetector, occorrerà calcolare per interpolazione cromatica i dati relativi alle due componenti mancanti; se nel photosite vi sono tre photodetector ogni componente monocromatica primaria sarà rilevata e nulla andrà calcolato.

Vi è al momento un particolare tipo di sensore il Super CCD SR a marchio Fuji che ha due photodetector specializzati in ogni photosite. Questi però non catturano due componenti cromatiche diverse, ma due intensità diverse di flusso luminoso della stessa componente cromatica. In questi sensori – dotati di Color Filter Array – l’effetto che si ottiene con una tale struttura dei photosite è quello di avere una gamma dinamica maggiore nelle immagini catturate.

Il pixel Poiché l’immagine finale è formata da pixel occorre innanzitutto spiegare in che modo il pixel, qualunque pixel, descrive le caratteristiche cromatiche (il colore) di quel dettaglio dell’immagine. Per questa ragione va premesso che un modo per riprodurre qualunque colore nello spettro della luce visibile (dal rosso cupo al violetto) è quello di proiettare tre raggi di luce relativi alle tre componenti monocromatiche ROSSE (R), VERDI (G) E BLU (B) dosandoli adeguatamente in intensità per ottenere il colore voluto (una bassa intensità di ogni componente primaria tende al nero, un’alta intensità tende al rispettivo colore saturo R, G o B). Questo metodo di sintetizzare i colori (ogni colore) con la luce si chiama mescolanza o sintesi additiva e si attua con i tre colori primari della sintesi additiva (RGB: Rosso-R Verde-G Blu-B). Quando invece si ha a che fare con mescolanza di pigmenti (inchiostri, quindi, non luce) si parla di sintesi o mescolanza sottrattiva ed i tre colori base sono CMYK, ovvero Ciano (C), Magenta (M) e Giallo (Y), che sono i tre colori complementari del Rosso Verde e Blu. La sintesi sottrattiva è quella usata in stampa (anche domestica) dove si aggiunge inoltre un inchiostro con un colore chiave (K=key), il nero, per compensare le inevitabili impurità di colore dei tre pigmenti CMY al fine di migliorare la fedeltà cromatica delle tonalità scure delle immagini. Un file di immagini destinato alla fruizione su monitor (pubblicazione su internet) o su dispositivi di proiezione avrà dunque uno spazio dei colori diverso da un file di immagini destinato ad una tipografia che stampa in quadricromia. Nel primo caso lo spazio colore sarà RGB, nel secondo sarà CMYK. Lo spazio colore è un modello matematico che descrive le possibilità di riprodurre in modo percepibile dall’occhio umano tutte le tonalità della luce visibile, vi sono dunque spazi colore diversi per diversi dispositivi che possono riprodurre i colori. Per quanto riguarda l’RGB si ha la variante sRGB e la variante AdobeRGB che differisce dalla prima per la sua capacità di rappresentare una gamma cromatica più ampia.Le fotocamere digitali producono normalmente immagini con una delle varianti RGB. I sistemi professionali di elaborazione delle immagini hanno tuttavia la possibilità di convertire fedelmente dei file di immagini digitali da uno spazio colore ad un altro.Per consentire la formazione di un’immagine fotografica digitale fedele, ogni pixel deve contenere quindi informazioni (dati) su ognuna delle tre componenti RGB.

Sistemi di acquisizione

Nelle fotocamere digitali sono sostanzialmente tre i metodi con cui si forma l’immagine: quello dei sistemi basati sul color filter array – CFA quello dei sistemi basati sui sensori a marchio FOVEON quello dei sistemi basati sui sensori Fujifilm “Super CCD SR” con CFA

Sistemi con CFA

Nei sistemi con Color filter array (con Filtro Bayer RGB o RGB-E) – che possono essere costruiti sia in tecnologia CCD o C-MOS – ogni photosite ha un solo elemento fotosensibile e cattura una sola delle tre componenti (o R, o G, o B), in questo modo le altre componenti di ogni pixel devono essere calcolate dal processore d’immagine attraverso una procedura di interpolazione. Così il prodotto finale di una fotocamera per es. da 3,4 Megapixel è un file con 3,4 megapixel dove ogni pixel ha le tre componenti RGB, ma una è realmente catturata dall’elemento fotosensibile e due calcolate. Un approfondimento sul funzionamento di questi sensori si trova alla voce correlata RAW . Per chiarire invece le diverse modalità di interpolazione adottate in fotografia digitale si rimanda al paragrafo interpolazione della voce correlata Fotocamera digitale.

Sistemi basati su FOVEON

Nei sistemi invece basati su sensori FOVEON (costruiti in tecnologia CMOS) ogni photosite cattura tutte e tre le componenti RGB, dunque vi sono tre elementi fotosensibili su ogni photosite. Qui per ottenere un’immagine finale da 3,4 Megapixel occorre avere un sensore con 10,2 milioni di elementi fotosensibili collocati in 3,4 milioni di photosite, ogni photosite è composto da tre strati, su ogni strato è collocato un photodetector. Qui ogni photosite (che numericamente) corrisponderà al pixel, ha tutte e tre le componenti RGB catturate da tre elementi fotosensibili e nessuna delle tre componenti è stata stimata con una procedura di calcolo, ma la mancata distinzione fra photosite, pixel ed elemento fotosensibile genera una non immediata comprensione della risoluzione dell’immagine prodotta. Infatti se può essere vero che le immagini finali hanno una migliore resa cromatica ed una minore presenza di interferenze (come l’effetto Moiré), è altrettanto vero che 10,2 milioni di elementi fotosensibili danno origine ad una immagine con una risoluzione di 3,4 megapixel. Le specifiche tecniche del sensore FOVEON testualmente recitano: “Total number of pixel sensors in image sensor: effective Pixels: 10.2 million pixels (3.4R, 3.4G, 3.4B), 2268 columns x 1512 rows x 3 layers”. Solo un tecnico con buone conoscenze nel campo della informatica grafica comprende immediatamente che con quei 10,2 megapixel si producono con FOVEON immagini da 3,4 megapixel, mentre un normale utilizzatore potrebbe essere indotto a ritenere che il sensore produca immagini con una risoluzione maggiore di quella reale. È evidente che se fosse introdotto e correttamente applicato il concetto di photosite sarebbe immediatamente chiaro che in quel sensore vi sono 3,4 milioni di photosite ognuno dei quali contiene tre elementi fotosensibili e il risultato è un file di immagine da 3,4 milioni di pixel. Solo così si ritiene possa essere attribuito al pixel la corretta accezione informatica che esso possiede, e si eviterebbe di confondere pixel con elemento fotosensibile e con photosite.

Sistemi basati su sensori Fujifilm “Super CCD SR” con CFA

I sensori FUJI “Super CCD SR” sono dotati di color filter array, quindi ogni photosite cattura un’immagine monocromatica, ma all’interno vi sono ugualmente due elementi fotosensibili: uno di forma ottagonale, più grande rispetto al secondo, per catturare tutta la luce possibile incidente sull’elemento fotosensibile. Per questi fattori costruttivi questo photodetector è molto sensibile e quindi cattura con ridotto rumore di fondo le luci di bassa intensità. Questo significa poter distinguere gradazioni diverse di intensità luminosa anche per luci molto basse, distinguendole così anche dai disturbi causati dal rumore elettronico del photodetector; ed un altro di dimensioni più ridotte rispetto al primo per garantire una buona risposta anche in presenza di luci molto alte, il che significa poter distinguere gradazioni diverse di intensità anche per luci molto intense.

Questo accorgimento è stato studiato per consentire di ottenere immagini con una dinamica molto più elevata rispetto ad altri sensori, il che significa avere immagini con sfumature distinguibili su una maggiore estensione di luminosità rispetto ad altri sensori. L’effetto finale è che in una stessa scena si possono distinguere così contemporaneamente, sia le sfumature delle zone scure della scena ripresa, sia quelle più luminose. Con questi sensori le immagini catturate con 12 milioni di elementi fotosensibili producono immagini con una risoluzione di 6 megapixel. La Fujifilm nelle specifiche tecniche del sensore parla 12 milioni di pixel (per una risoluzione finale delle immagini di 6 megapixel), ma nelle descrizioni introduce il concetto di photosite.

Fedeltà cromatica – profondità colore

La percezione della qualità cromatica delle immagini dipende da più elementi: La fedeltà con la quale vengono catturati e registrati i dati di colore delle immagini. Questi sono compresi nel cosiddetto “spazio colore” adottato (sRGB o AdobeRGB) ed anche la diversa ampiezza dei due spazi colore può condizionare la fedeltà cromatica dell’immagine registrata. La fedeltà dei colori dipende comunque in modo rilevante anche dalla profondità colore con cui è registrato un file. Questo è un parametro che indica il dettaglio cromatico cioè l’intervallo minimo possibile fra due gradazioni di colore. Maggiore è la profondità colore (che si indica in bit), minore è l’intervallo fra due gradazioni di colore contigue. La trattazione più dettagliata relativa alla profondità colore si trova nella voce correlata RAW . La fedeltà dei colori registrati è sempre percepita attraverso il lavoro di una periferica (monitor, stampanti, ecc). Finora infatti s’è parlato solamente della fedeltà con la quale le immagini vengono catturate, elaborate e registrate, ben sapendo tuttavia che la fedeltà della visualizzazione – e di conseguenza della percezione – deriva anche da altri fattori che dipendono dalla fedeltà con la quale le periferiche di output forniscono immagini visibili. Queste presentano problematiche diverse relativamente alla fedeltà cromatica come il gamut di visualizzazione inteso come area dello spazio colore riproducibile da quella periferica, e come la profilazione della periferica stessa attraverso l’uso dei profili colore ICC e ICM che in ultima analisi sono file di dati che permettono la correzione nella periferica del colore visualizzato. Ad esempio, se con determinati dati di colore presenti in un’immagine, la periferica non riesce a riprodurli fedelmente secondo l’originale fotografato, o secondo tabelle di riferimento cromatico oggettivo, il profilo colore apporterà le necessarie correzioni alla periferica perché con i dati cromatici di quel file si ottengano le giuste corrispondenze cromatiche nell’immagine da visualizzare.

 

Fonte: http://it.wikipedia.org/wiki/Fotografia_digitale