FOTOCAMERE DIGITALI

Una fotocamera digitale è una fotocamera che utilizza, al posto della pellicola fotosensibile, un sensore (CCD o CMOS) in grado di catturare l’immagine e trasformarla in un segnale elettrico di tipo analogico. Gli impulsi elettrici vengono convertiti in digitale da un convertitore A/D, nel caso del CCD in un chip di elaborazione esterno al sensore, nel caso del CMOS, direttamente dal sensore, avendo implementato al suo interno anche il convertitore A/D, in entrambi i casi viene generato un flusso di dati digitali atti ad essere immagazzinati in vari formati su supporti di memoria.

Descrizione

Risoluzione

Secondo le regole attuali di mercato un parametro distintivo delle fotocamere è quello del numero di pixel. Per ottenere una buona fotografia risulta essere importante un’ottica di qualità, un sensore che abbia un buon rapporto segnale/rumore, una buona gamma dinamica ed infine in funzione delle esigenze di stampa si sceglierà la risoluzione del sensore.

Una macchina fotografica non “ha” una “sua risoluzione”. Si definisce tale la quantità di pixel prodotti in uscita dal sensore. In fotografia invece spesso conta la profondità di risoluzione, che è data dal numero di punti per pollice lineare, e che viene decisa in fase di stampa. Ovviamente fotocamere con sensori più sofisticati, produrranno immagini con più informazioni e che quindi potranno essere stampate con un numero di pixel per pollice maggiore, a parità di dimensioni di stampa, delle immagini prodotte da un sensore meno efficiente.

Il sensore

Il sensore, analogo a quello utilizzato nelle videocamere portatili. Sempre e comunque si tratta di dispositivi fotosensibili costituiti da una matrice di fotodiodi in grado di trasformare un segnale luminoso in uno elettrico. Impiegando il CCD, la conversione del livello di luce in dato digitale avviene necessariamente all’esterno del sensore ad opera di un chip dedicato, nel CMOS la conversione avviene direttamente all’interno del chip/sensore, ogni fotodiodo ha il proprio amplificatore e convertitore A/D. In termini di qualità, riferita a prodotti di consumo, una tecnologia non prevale sull’altra, solo su sistemi ai massimi livelli il CCD risulta qualitativamente ancora superiore, responsabili sono gli innumerevoli amplificatori e convertitori implementati nella matrice del chip CMOS insieme ai fotodiodi, i parametri dei quali possono discostarsi anche di pochissimo uno dall’altro, cosa che non succede nel CCD, avendo la possibilità di convertire gli innumerevoli livelli del segnale luminoso tramite un chip dedicato, ottimizzato per questa funzione. Gli svantaggi del CCD rispetto al CMOS sono i maggiori costi di produzione, una maggiore lentezza di lavoro, il maggiore ingombro e un maggior consumo di energia.

Nella fotocamera digitale, l’immagine viene messa a fuoco sul piano del sensore. I segnali così catturati vengono amplificati e convertiti in digitale. A questo punto i dati digitali sono in forma grezza (raw) e – così come sono – possono essere memorizzati su un file per una successiva elaborazione in studio, con altri apparecchi informatici. Successivamente il processore di immagine interno alla fotocamera trasforma questi dati, cioè calcola le componenti primarie mancanti su ogni pixel (RGB) e rende compatibili i dati di immagine con i normali sistemi di visualizzazione di immagini (generalmente nel formato JPEG o TIFF a seconda delle esigenze per le quali è destinata la fotocamera) ed infine immagazzina il file elaborato in una memoria a stato solido (ordinariamente dal punto di vista tecnologico si tratta di EEPROM di tipo Flash, mentre i formati con cui sono messe in commercio sono diversi (CF, XD, SD, MMC, Memory stick, ecc). Le schede contengono generalmente un rilevante numero di immagini, la quantità dipende dalle dimensioni della singola immagine, dalla modalità di registrazione e dalle dimensioni della memoria.

La risoluzione totale del sensore si misura in milioni di pixel totali. Un pixel è l’unità di cattura dell’File: rappresenta cioè la più piccola porzione dell’immagine che la fotocamera è in grado di catturare su una matrice ideale costruita sul sensore CCD.

Le proporzioni delle immagini che si ottengono con gli attuali sensori (o attraverso elaborazioni del processore d’immagine interno alla fotocamera), sono indicate nella figura seguente:Proporzioni delle immagini che si ottengono con gli attuali sensori

Moltiplicando il valore in pixel della risoluzione orizzontale per quello della risoluzione verticale si ottiene il numero totale di pixel che la fotocamera è in grado di distinguere in una immagine.

Le caratteristiche che attribuiscono qualità ai sensori sono:

Questo fenomeno si evidenzia in modo particolare nelle riprese a bassa luminosità dove possono comparire degli artefatti di immagine dovuti a segnali derivanti dal rumore elettrico di fondo degli elementi fotosensibili;

  • Elevata gamma dinamica. Questo parametro indica l’ampiezza dell’intervallo di luminosità dal minimo registrabile al massimo registrabile prima che l’elemento fotosensibile vada in saturazione.
  • Elevato numero di pixel. L’elevata quantità di elementi fotosensibili garantisce un elevato dettaglio di immagine, ma sorgono problemi di velocità nel trasferimento dei dati al processore d’immagine. Maggiore è la risoluzione, maggiore è il numero di pixel, maggiore sarà quindi la quantità di dati da trasferire e dunque, a parità di velocità di trasmissione, maggiore sarà il tempo necessario a trasferire i dati al processore d’immagine e la successiva registrazione dell’immagine. Alcuni produttori hanno studiato sensori con 4 bus dati di uscita dal sensore che trasmettono in parallelo i dati di immagine al processore della fotocamera.
  • Capacità di non trattenere ombre sul sensore relative a riprese precedenti. Questo problema si incontra prevalentemente nei sensori di tipo CMOS e richiede che i costruttori adottino strategie per ottenere una sorta di cancellazione elettronica del sensore fra la ripresa di un’immagine e l’altra;
  • Capacità del sensore di non produrre artefatti derivanti da interferenze (effetto moiré) fra i pixel in particolari condizioni di ripresa;
  • Dimensione fisica del sensore a parità di pixel (e quindi a parità di risoluzione). Se la dimensione fisica del sensore è elevata a parità di numero di pixel questo comporta ovviamente una maggiore dimensione fisica dei pixel o dei photosite (per un chiarimento sui termini photositepixel e elemento fotosensibile vedi il paragrafo “Numero di Pixel e qualità delle immagini” della voce correlata Fotografia digitale). Tale fatto rende maggiormente sensibili gli elementi dei photosite (pixel) garantendo un miglior rapporto segnale/rumore. Ad esempio vi sono sensori da 6 MP (f.to 4:3) con dimensione 1/2,7” che hanno una dimensione di 5,371 mm x 4,035 mm (diagonale = 6,721 mm), mentre altri sensori da 6 MP hanno dimensioni 1/1,8” e dimensione di 7,176 mm x 5,319 mm (diagonale = 8,933 mm). In termini di rumore e di sensibilità la qualità del sensore è normalmente maggiore nel sensore più grande.

I sensori di alcune fotocamere REFLEX professionali hanno il sensore di formato 3:2 ed un rapporto 1:1 con il fotogramma della pellicola (Full-Frame), una dimensione quindi di 24×36 mm. Con queste dimensioni – oltre ad avere un basso rumore, risulta possibile garantire che l’angolo di campo delle ottiche non sia alterato (rapporto 1:1 fra angolo di campo della fotocamera con sensore e quella a pellicola).

La qualità dell’immagine tuttavia è importante relativamente alla modalità di fruizione: se le immagini si utilizzano a video non ha molta rilevanza la risoluzione, ma se si intendono realizzare stampe di grande formato allora la risoluzione diventa un parametro da tenere presente. Tanto più si vorrà effettuare una stampa grande di una foto digitale, tanto più la fotocamera dovrà produrre immagini ad una risoluzione elevata. Ecco alcuni esempi:

  • Una foto in formato standard da 14 cm di larghezza necessita di 1.2-2 megapixel di risoluzione per risultare pari ad un prodotto di una macchina fotografica tradizionale;
  • Per stampare su di un foglio A4 sono necessari dai 2 ai 3 megapixel;
  • Per realizzare un poster da 60–70 cm sono consigliabili risoluzioni non interpolate di più di 5 megapixel;

Interpolazione

Altro parametro a cui andrebbe rivolta una certa importanza da chi della fotografia vuol fare qualcosa più di un hobby è la questione dell’interpolazione. Tale tecnica matematica viene infatti utilizzata in due modalità diverse a volte contemporaneamente sulla stessa fotocamera:

  • nelle fotocamere a bassa risoluzione si utilizza per generare dei pixel ulteriori a quelli catturati dal sensore generandone il valore di cromia per portare ad esempio una risoluzione di una fotocamera da 3 Mpixel a 4 Mpixel. Il procedimento in realtà non aggiunge informazioni vere all’immagine, ma rende meno evidente la quadrettatura dovuta al pixel se si volesse ingrandire l’immagine oltre il consentito. È un procedimento usato anche negli scanner attraverso un’elaborazione software.
  • In tutte le fotocamere che adottano un sensore con Color Filter Array si usa l’interpolazione per generare in ogni pixel le due componenti cromatiche mancanti, in questo caso si tratta propriamente di interpolazione cromatica.

In merito a quest’ultima modalità infatti va detto che il sensore – composto da milioni di elementi fotosensibili – solo nel suo complesso cattura informazioni riguardanti le tre componenti RGB (Red-Green-Blue) (Rosso-Verde Blu) che compongono la luce della scena focalizzata sulla sua superficie. Quasi tutti i sensori, anche se con modalità diverse, hanno i photosite (che normalmente hanno un solo photodetector per photosite) che catturano una sola componente cromatica della luce. Sulla superficie del sensore infatti è collocato un filtro a mosaico denominato Color Filter Array (CFA), il più diffuso è di tipo Bayer che a sua volta può presentare diverse varianti sul numero dei colori che vengono filtrati (3 o 4) e sulla disposizione dei colori sul mosaico. Il più comune è quello denominato GRGB che ha il 50% dei photodetector che catturano il Verde (G), il 25% che catturano il Rosso (R) ed il rimanente 25 % che catturano il Blu (B). Per ottenere una adeguata fedeltà cromatica dell’intera immagine, ogni pixel registrato in un file grafico a colori (fa eccezione il file di tipo Raw) deve contenere le informazioni cromatiche di tutte e tre le componenti RGB della luce incidente su ogni pixel. Questo perché la riproduzione delle immagini luminose avviene per mescolanza additiva delle tre componenti primarie della luce. Poiché ogni photodetector ne cattura solo una di queste (R, G o B), non può fornire tutti i dati per la formazione del pixel, così le altre due informazioni cromatiche vengono calcolate dal processore d’immagine attraverso un procedimento matematico (algoritmo di demosaicizzazione – demosaicing). Solo così il pixel, inteso come raggruppamento dei dati cromatici della più piccola porzione che forma l’immagine, può concorrere ad una rappresentazione fedele dei colori dell’immagine.

Diversamente avviene per. es. in alcuni scanner ed in alcune fotocamere dove:

  • l’interpolazione serve ad aumentare in modo artificiale il numero di pixel senza che vi sia riferimento a nessun oggetto reale;
  • e nei quali la risoluzione vera è quella ottica, non quella ottenibile via software,

nelle fotocamere digitali il processo interpolazione cromatica comune a tutte quelle dotate di CFA consiste nel calcolare il valore delle due componenti cromatiche mancanti su ogni pixel a partire normalmente dai valori contigui al pixel in questione aventi la stessa componente cromatica che si intende calcolare. L’approssimazione – peraltro abbastanza precisa – è quindi sul dettaglio cromatico dell’immagine e si consideri che comunque una delle tre componenti è realmente rilevata da ogni pixel. Al momento (aprile 2009) in commercio risulta esservi un solo sensore, prodotto da Foveon, che cattura le tre componenti RGB su un unico photosite. Questo viene montato su alcuni modelli di fotocamere, ma la sua diffusione è più ridotta rispetto ai sensori dotati di C.F.A. Una precisa distinzione fra pixelphotosite e elemento unitario fotosensibile=photodetector) si trova nel paragrafo Numero di Pixel e qualità delle immagini della voce correlata fotografia digitale. Invece un approfondimento sulle diverse modalità di formazione delle immagini nelle fotocamere digitali, sulla formazione dei file delle immagini per interpolazione in base alle esigenze di profondità colore e sulla elaborazione dei file Raw, si trova alla voce Raw (fotografia)