Modifica Monocromatica perché farla?


Perché modificare perdere la testa e soldi per effettuare una modifica B/W irreversibile? Beh una fotocamera monocromatica equivalente saprà sempre dare un'immagine molto più nitida di una fotocamera a colori perché la risoluzione dipende dalla quantità e la tipologia di colore nell'immagine... Per capire perché, bisogna capire come funziona un sensore digitale a colori. Abbiamo una spiegazione piuttosto tecnica per i tecnicisti. Per i tipi più artistici più sensoriali e meno interessati alla scienza, si prega di prendere in considerazione solo le due immagini qui sotto.



Canon 30 D di serie con scatto in bianco nero




Canon 30 D con Color Filter Array (CFA) rimosso


Quale immagine vi sembra meglio? Queste immagini sono una una parte di un fotogramma ingrandito al 100% in Photoshop.


Facciamo un po'di storia. La Kodak ha fatto una serie di fotocamere in bianco e nero DSLR che inizia con la DCS-420m (1.2 megapixel), DCS-460m (6 megapixel) e, infine, la DCS-760m (migliorata a 6 megapixel). Il DCS-760M venduta per $ 10,000.00 nel 2001. Purtroppo, il mercato delle fotocamere DSLR in B/W è piuttosto piccolo e la Kodak ha interrotto la serie. Oggi, Kodak ha interrotto tutte le telecamere DLSR e la società è stata ridimensionata rispetto al passato. Nessun produttore sta facendo un B / N per il consumatore mediodi fotocamere reflex digitale.esistono anche alcuni dorsi di macchine di medio formato in bianco e nero, oppure macchine come la Leica monochrome ma sono casistiche piuttosto costose e decisamente fuori mercato.

Il sensore di una fotocamera digitale è formato da vari strati paartendo dall'alto:


- Microlens esse servono per focalizzare la luce all'nterno del pixel. In pratica c'è una microlente per ogni pixel.


Color Filter Array (CFA). Sono una matrice di puntini rossi uno per pixel, verdi e blu in pratica sono dei filtrini stampati su tutta la superficie. Ogni pixel sarà solo uno dei tre colori (detti RGB) - rosso, verde o blu. L'allineamento del filtro colore (CFA) di solito è un Rosso, un Verde, un Blu, un poi un Verde distribuiti secondo uno schema della matrice di Bayer. Una fotocamera da 10 megapixel quindi avrà 5 milioni di pixel verdi, 2,5 milioni di pixel rossi e 2,5 milioni di pixel blu.


- Black and White Photodiode. Sotto ogni filtro colore (CFA) vi è un dispositivo in bianco e nero che legge l'intensità di luce (Il fotodiodo). Una fotocamera da 10 megapixel avrà 10 milioni di pixel bianchi e neri in quando abbiamo un fotodiodo ogni pixel.






L'immagine qui sopra mostra la struttura di un pixel rosso. Un pixel verde avrà un filtro di colore verde, e blu del pixel avrà un filtro di colore blu.

I pixel sono disposti solitamente secondo la matrice di Bayer rosso-verde-blu-verde. Il verde viene utilizzato due volte a differenza del rosso e del blu, nel tentativo di imitareil più possibile la sensibilità dell'occhio umano che vede il verde meglio del rosso o del blu. Gli esseri umani vedono il verde meglio di qualsiasi altro colore.





Matrice di Bayer










Questa a sopra è un'immagine al microscopio del sensore di una Canon 450 D dove si può notare la disposizione dei filtri del CFA sotto un micrometro per comparare (una linea = 0.01mm)


Nella maggior parte delle recensioni sulle risoluzioni delle fotocamere, i test vengono eseguiti con un cartoncino di test in bianco e nero sotto la luce bianca. Il test in bianco e nero mostra la risoluzione massima di cui una fotocamera a colori è in grado di dare. Questo perché il cartoncino in bianco e nero ha solo luminanza (intensità di luce). Il test in bianco e nero non ha crominanza (colore) di dati. Perché è importante? Ricordate, per ogni quattro pixel su un sensore a colori, si ottiene 2 verde, 1 rosso e 1 blu. Quindi se l'oggetto fosse illuminato con una luce blu? Si otterrebbe solo un 1/4 dei pixel vedendo la luce blu. In effetti, la vostra fotocamera da 10 megapixelsarebbe trasformata in una fotocamera da 2,5 megapixel.


Per testare questa teoria abbiamo effetuato il seguente test:

  • Abbiamo iniziato con due macchine fotografiche Canon 30D. Abbiamo convertito una a monocromatica rimuovendo le AA, microlenti e CFA. Questo è molto più facile a dirsi che a farsi. 
  • Abbiamo utilizzato una varietà cartoncini di test in una stanza con illuminazione controllata. 

  • Abbiamo usato un'ottica Coastal 60mm UV-VIS-APO obiettivo impostato a f8 per entrambe le fotocamere.
  • Sono stati utilizzati per illuminare i bersagli luce bianca e rossa pura, verde e azzurro. 
  • Tutte le foto sono state scattate in RAW 
  • Entrambe le fotocamere sono state messe a 200 ISO, impostato il blocco dello specchio, e scatto temporizzato su un treppiede. 


I risultati sono stati analizzati in ImageJ per misurare la nitidezza (Modulation Transfer Function o MTF)


I risultati sono stati visualizzati anche in Photoshop




Risultati:




In primo luogo vi mostreremo l' MTF delle due macchine fotografiche. La fotocamera monocromatica è la colonna di sinistra. Fondamentalmente, MTF è un modo matematico per quantificare sull'obiettivo e sulla fotocamera nitidezza. Si può facilmente dare un'occhiata a una foto e vedere che una è più nitida rispetto alle altre, ma la domanda è "Quanto"? MTF ci permette di mettere i numeri di quello che possiamo vedere.




Quanto più l' MTF va a destra tanto più è alto e più nitida è l'immagine. Ci sono quattro grafici MTF per ogni fotocamera. La prima mostra il bianco. Più avanti è di colore verde, poi blu e infine rosso. La luce blu era la luce più debole, in modo che l' MTF azzurro ha mostrato la peggiore performance da entrambe le telecamere. Si può vedere che la telecamera B / W ha prestazioni molto più elevate. A 0,2 cicli / pixel, la fotocamera monocromatica ha il doppio della nitidezza e di 0,30 cicli, ha 5x la nitidezza.












Si può vedere che in ogni caso, la macchina fotografica in bianco e nero supera sostanzialmente il colore.




Prestazioni nella vita reale. I titoli delle diverse immagini vi diranno che test è. In primo luogo, vi mostriamo la telecamera a colori riprendere la stessa immagine sotto la luce verde, blu, rosso e bianco. Si noti che l'immagine verde ha la più alta risoluzione, perché ci sono due volte più numerosi pixel verdi rispetto al rosso o blu. Si noti che l'immagine blu mostra il più alto rumore e che possiamo vedere che la luce blu è lapiù debole e / o pure la risposta del sensore alla luce blu. Si noti la differenza tra le telecamere a colori e monocromatiche.



A50% in Photoshop






A 100% in Photoshop

ringrazio Dan Llewellyn President LDP LLC per la gentile concessione.



Commenti

Post più popolari