Desde hace ya algunos meses me propuse sacar una serie de posts que a la postre formarán parte de varios ebooks . Todos estos posts son los relacionados con la luz y los efectos que se producen cuando pasan a través del objetivo, así como los que hablan de los circuitos asociados al objetivo como los servos, etc.
También hay posts donde se habló de cómo se separa la luz antes de llegar a los CCDs e incluso de cómo se limpian estos elementos.
Pues bien, la última parte de estos ebooks que se publicarán dentro de poco es la que afecta a los captadores de imágenes, o sea, el CCD y el CMOS.
En los posts que se publicarán más adelante se analizarán todos los aspectos más relevantes que definen un sensor de imagen (resolución, ruido, etc.) así como los tipos de CCDs que hay teniendo en cuenta su arquitectura (FIT, IT, FT) o su utilización.
Definición
El captador de imagen es el dispositivo que se utiliza en la cámara de televisión para convertir la imagen óptica que entra por la lente en una señal eléctrica mediante fotosensores que se disponen de forma matricial o lineal.
El píxel
Por más que leo sobre la definición del píxel, creo que suele darse un punto de confusión entre lo que es el píxel enfocado desde el punto de vista de una unidad lógica y el píxel enfocado como una parte física del sensor de captación o de la pantalla.
Antes que nada quiero indicar que la palabra píxel es una palabra inglesa que esta compuesta a su vez por dos más que son picture (imagen) y element (elemento).
Una vez visto esto, creo que lo correcto sería ver el píxel como una unidad lógica en vez de verlo como una unidad física y esto probablemente nos aclare otros conceptos que se explicarán a continuación relacionados con los píxeles.
Si nos planteásemos tratar el píxel como un elemento físico, éste, dependería de cómo haya configurado el fabricante de la pantalla o del sensor la resolución del mismo. El por qué digo esto, pues porque si suponemos que el fabricante ha configurado la pantalla a la máxima resolución tendríamos que el tamaño de un punto de la pantalla sería el tamaño de un píxel. Pero si la resolución se fijase menor a la de la máxima resolución admisible, el píxel sería mayor que el tamaño físico de los puntos de la pantalla, o sea, que un píxel estaría compuesto por varios puntos de la pantalla.
Una vez dicho esto es más fácil entender la composición de un píxel de color, ya que éste (para que nos muestre la mezcla de las componentes RGB) se compone por lo que se denominan subpíxeles, o sea, cada píxel (entendido como unidad lógica) esta compuesto por tres subpíxeles (o píxeles físicos).
Cuando se habla de un píxel de color, dicho color queda definido por tres bytes, o sea, la información de un byte por cada subpíxel.
Si el píxel de color queda definido por los 24 bits que componen los tres bytes estaremos hablando de un concepto del que se habla mucho en el ámbito del color que se denomina True Color o color verdadero.
1.1. El píxel grande
A la hora de fabricar un sensor captador de imagen, éste, dependiendo del uso que se le vaya a dar se puede fabricar con píxeles pequeños o con píxeles grandes. Si se da este último caso, el sensor dispondrá de una buena ganancia, mejorará la relación señal-ruido así como el rango de velocidad.
Ahora bien, en su contra podemos decir que los sensores fabricados con píxeles grandes tienen mayor aliasing. Este aliasing se puede reducir si se adjunta filtros antialiasing, aunque estos filtros son bastante caros y como cualquier filtro afecta a la señal y en este caso a la resolución.
De todas formas, leyendo el white paper óptica para fotografía digital de Schneider Optics, se indica que este aliasing se puede controlar de una manera óptima si el MTF de la lente más el del sensor no es mayor del 10% del Nyquist.
1.2. El píxel pequeño
En el caso del píxel pequeño, hay que destacar que la imagen gana en resolución, pero que se necesita abrir más el diafragma para ver mejor la imagen necesitándose más pasos de diafragma debido a que disminuye la sensibilidad. Esto se debe a que como los píxeles son más pequeños, también admiten menor número de fotones, por lo que evidentemente el número de electrones que transforman también es menor. Esto hace que aumente el ruido, por lo que la relación señal-ruido disminuye.
Para empezar esta serie de posts he comenzado por definir el principal elemento de los que se componen los captadores de imágenes. Seguro que puede haber otro tipo de sensores, así que si te parece y conoces alguno puedes dejarnos un comentario a continuación.
Fuentes consultadas:
http://en.wikipedia.org/wiki/Optical_transfer_function
http://www.normankoren.com/Tutorials/MTF7.html
http://www.gatan.com/files/PDF/knowhow/kv8_ccd_pixels_question.pdf
http://es.wikipedia.org/wiki/Charge-coupled_device
http://es.wikipedia.org/wiki/Sensor_CMOS
http://www.optics4birding.com/starlight-technology.aspx
http://www.andor.com/learning-academy/electron-multiplying-ccd-cameras-the-technology-behind-emccds
http://photorumors.com/2009/09/13/new-sony-full-frame-sensor-ccd-superhad-ii-with-34-8mp/
http://www.hkvstar.com/technology-news/comparison-between-ex-view-had-and-super-had-ccd-cameras.html
http://www.sony.net/Products/SC-HP/cx_news/vol52/pdf/featuring52.pdf
http://www.lavision.de/en/products/cameras/iccd_cameras.php
http://en.wikipedia.org/wiki/Charge-coupled_device#Intensified_charge-coupled_device
http://en.wikipedia.org/wiki/Photocathode
http://en.wikipedia.org/wiki/Microchannel_plate_detector
http://www.hkvstar.com/technology-news/comparison-between-ex-view-had-and-super-had-ccd-cameras.html
http://www.mintron.com/htm/q&a/htm/super%20had%20ccd%20camera.htm