Nuncasalgoenlafoto.com | La cámara digital
15242
portfolio_page-template-default,single,single-portfolio_page,postid-15242,ajax_fade,page_not_loaded,,qode-title-hidden,qode-theme-ver-9.2,wpb-js-composer js-comp-ver-4.11.2.1,vc_responsive

La cámara fotográfica

Funcionamiento de la cámara Digital

La cámara oscura es un instrumento que permite obtener una proyección plana de una imagen externa sobre una superficie en la zona interior de una cámara o caja, esa proyección se realiza gracias a las propiedades de la luz, trasmitiéndose desde el exterior al interior de la cámara a través de un pequeño orificio o estenopo (palabra griega que significa agujero).

Los diferentes avances y descubrimientos tecnológicos en óptica y electrónica, han conseguido que la cámara oscura se haya convertido en una herramienta compleja, pero no por ello se aleja del principio fundamental de la cámara oscura en esencia.

image003
Tipos de cámaras y sensores

El formato del sensor de imagen de cámaras digitales determina el ángulo de visión de una lente específica cuando se utiliza con una cámara determinada. Particularmente, los sensores de imagen de las cámaras réflex digitales tienden a ser más pequeños que los 24 mm x 36 mm de área de imagen de las cámaras de 35 mm tradicionales, este formato es el que se le ha atribuido como referencia para las cámaras digitales el nombre de Full Frame (FF) o formato completo, y por lo tanto la gran mayoría de las cámaras llevan a un ángulo de visión más estrecho. Para un número dado de píxeles en un sensor, mientras más grande es el sensor de imagen típicamente produce imágenes de más alta calidad porque los píxeles individuales tienen un tamaño mayor.

image004

Las lentes fabricadas para las cámaras de película de 35 mm se pueden montar bien en los cuerpos de las cámaras digitales con sensores menores, APS-H, APS-C, 4/3, etc., pero el círculo de imagen proyectado por la lente del sistema de 35 mm más grande, puede producir reflejos en el cuerpo de la cámara y afectar a la imagen. Un tamaño más pequeño del sensor de imagen de tamaño completo o Full Frame comparado a los del formato de 35 mm resulta una imagen recortada, el cociente del tamaño del formato es conocido como el factor de recorte o factor de multiplicación de la distancia focal.

Por ejemplo, el factor de recorte del formato APS-C de Canon con respecto al formato completo de 35mm es de 1,6. Y el formato de APS-C de Nikon es de 1,5.

formatos sensor

Calculo para el sensor de 22,2 x 14,8mm de Canon con respecto al formato de 35mm (24 x 36mm):

Para conocerlo, dividiremos entre si sus lados, o los más largos o los más cortos, es indiferente, el resultado será el mismo para cualesquiera de la elección;

factor recorteEl área de formación de la imagen del formato APS-C es menor que el de 35mm, para conocer la equivalencia de una lente de 35mm para APS-C tendremos que multiplicar el Valor calculado por las distancias focales. Por ejemplo; una lente cuya distancia focal sea de 28mm, para Canon APS-C seria 28 x 1,62 = 45mm y para Nikon APS-C seria 28 x 1,52 = 42mm.

Si la lente, el lugar de tener una focal fija es un zoom, sería el mismo proceso para los dos rangos focales; un zoom 24-70mm en 35mm equivaldría a un 39-113mm para Canon APS-C y 36-106mm para Nikon APS-C.

En fotografía está establecido que el ángulo de visión nítida equivalente al ojo humano es un objetivo de 50mm, ya que aunque nuestra visión es binocular, y un campo de percepción de hasta 200 grados, el campo de visión clara o nítida, se limita a unos 46o. Con un objetivo de 50mm percibimos los elementos del mismo tamaño y distancia que lo ven nuestros ojos. Para saber cuál es el ángulo de visión normal de un sensor hay que hallar la diagonal del sensor.

Ejemplo para el formato de 35mm formula 1
Para un formato APS-C (canon)formula 2Para calcular los grados del ángulo una vez conocida la diagonal es necesario aplicar una fórmula para calcular el ángulo, puedes verlo en el bloque de distancia Focal.

Date cuenta que para obtener el mismo ángulo de visión entre dos tamaños de sensor, varia la distancia focal. Si multiplicas la focal del formato de sensor Aps-C (de canon) 31mm, por el factor de recorte que he calculado arriba 1,621 obtienes el valor de 50, que es la focal para el formato de sensor FF (Full Frame o 35mm).

Ejemplificación de recorte según tamaños del sensor

Formato Completo o Full Frame

APS-H

APS-C

4/3

EL PIXEL COMO UNIDAD DE MEDIDA

El sensor de imagen está compuesto por millones de pequeños semiconductores de silicio, los cuales captan los fotones (elementos que componen la luz, la electricidad). A mayor intensidad de luz, más carga eléctrica existirá.
Los fotones desprenden electrones dentro del sensor de imagen, los cuales se transformarán en una serie de valores (datos digitales) creando un píxel. Por lo tanto cada célula que desprenda el sensor de imagen se corresponde a un píxel, el cual, formará cada punto de la imagen.

Sensores CMOS y CCD

Dentro de los dos tipos de sensores para captar la luz existen dos formas de filtrar las diferentes longitudes de onda del color, sensor CMOS FOVEON X3 o sensor de mosaico CMOS o CCD con filtro bayer, filtro CYMG o filtro RGBE.

Sensor CMOS FOVEON X3

En la fotografía tradicional la película en color está constituida por tres capas sensibles a la luz, cada capa con un color primario que expuestos a la luz produce la escala cromática una vez revelado. Este sistema para captar la luz es el que ha heredado la fotografía digital, el sensor de la cámara fotográfica posee una capa con fotocaptores para cada uno de los colores.

Sensor de mosaico CMOS o CCD con FILTRO BAYER

Mosaico de Bayer y llamado así por su creador, Bryce Bayer de Eastman Kodak, es un tipo de matriz de filtros, rojos verdes y azules, que se sitúa sobre un sensor digital de imagen para hacer llegar a cada fotodiodo la información de luminosidad correspondiente a una sección de los distintos colores primarios. Interpolando las muestras de cuatro fotodiodos vecinos se obtiene un pixel de color.

El mosaico de Bayer está formado por un 50% de filtros verdes, un 25% de rojos y un 25% de azules. Interpolando dos muestras verdes, una roja, y una azul se obtiene un pixel de color. En la patente de Bryce Bayer, se llama elementos sensores de luminosidad a los verdes, y elementos sensores del color a los rojos y azules. La razón de que se use mayor cantidad de puntos verdes es que el ojo humano es más sensible a ese color. La disposición de los colores suele ser rojo-verde-rojo-verde… en una fila, y verde-azul-verde-azul en la siguiente fila paralela.

En los ficheros RAW de las cámaras de fotos digitales se guarda la información del patrón de Bayer de forma directa, sin interpolaciones, lo cual puede ser aprovechado posteriormente por los programas de revelado digital para una decodificación de mayor calidad que la que permiten los algoritmos internos presentes en los dispositivos de captura.

filtro bayerBayer_pattern.svgLa mayoría las cámaras actuales utilizan el filtro bayer (GRGB), con el doble de celdas verdes, porque los conos y bastones, que son receptores del ojo humano de las longitudes de onda de la luz son más sensibles al color verde.

Archivos de Imagen

Existen muchos formas para guardar la información de una imagen en un archivo, pero en fotografía se ha estandarizado para simplificarnos la vida, sin embargo, el desconocimiento de información referente al almacenamiento de los datos, nos puede acarrear problemas de forma irreversible.

formula 3

Para la composición de cada pixel es necesario 3 colores y para cada color es necesario 8 bits

formula 4Para conocer el tamaño de una imagen de 720 X 576 pixeles, debemos hacer las siguientes operaciones:

  1. Multiplicar el tamaño de la imagen por la profundidad de color 3 bytes un byte por cada color.

  2. El resultado nos dan bytes de color, para obtener Kb dividimos por 1024

  3. Para pasar de Kb a Mb volvemos a dividir por 1024.

formula 5

Sistema de almacenamiento de imagen.

La información se puede almacenar mediante dos procesos diferenciados; mediante rastreo de mapa de bits o mediante formula vectorial.
Cada una tiene unas características y cada una está enfocada a campos distintos. La imagen de mapa de bits está pensada para imágenes con importantes gradaciones de color, es el método que se utiliza en fotografía, y otros campos donde lo que se busca es la fidelidad de la imagen real. La imagen vectorial se organiza en función de formulación matemática de vectores, su uso está muy extendida en el sector del diseño y publicidad , donde se utilizan extensiones de un solo color o escasa gradación cromática, este sistema alivia muchísimo más a los tamaños de los archivos, por ejemplo un archivo ocupa prácticamente lo mismo tanto si el archivo tiene 50cm como si tiene 5 metros, ya que de su composición se ocupan una fórmula matemática que cambia la variable para que sea de mayor o menor tamaño, sin embargo en una imagen de mapa de bits, cuanto mayor sea la imagen es necesario más bytes para guardar todos los datos.

mapa-vectorCompresión de los datos en la imagen

El formato más extendido de almacenamiento de imágenes es sin duda el JPEG (Joint Photographic Experts Group, Grupo de Expertos en Fotografía), sin duda se ha estandarizado por su versatilidad de uso, ya que dispone de un sistema de compresión de datos con varios niveles, apto para imágenes donde se quiera almacenar información sin pérdida de datos apreciable, hasta una mayor compresión para cuando las limitaciones radican en el tamaño del archivo, sobre todo enfocado al desarrollo y distribución web.

Las aparentes ventajas de esa versatilidad se pueden convertir en inconvenientes si uno no llega a conocer el proceso correcto para modificar dichos parámetros de guardado y redimensionamiento de los archivos.

interpolacionEl algoritmo JPEG, transforma la imagen en cuadrados de 8×8 y luego almacena cada uno de estos como una combinación lineal o suma de los 64 recuadros que forman esta imagen, esto permite eliminar detalles de forma selectiva, por ejemplo, si una casilla tiene un valor muy próximo a 0, puede ser eliminada sin que afecte mucho a la calidad.

compresion datosUno de los grandes inconvenientes de este formato es que solo admite el proceso en 8 bits por canal y aunque el ojo humano no tiene la capacidad de diferenciar más de los 16 millones de colores que nos ofrece la profundidad de color de 8 bits, cuando se manipula la información sobre una imagen interpolada, en ocasiones se pueden apreciar artefactos o pixeles distorsionantes en una imagen.

TABLA DE PROFUNDIDAD DE COLOR

 

Nº máximo de colores

Nº bits/canal

Escala de grises

Color RGB

1 bit

2

8

2 bits

4

64

4 bits

16

4.096

8 bits

256

16,7 Millones (8×3=24 bits)

12 bits

4.096

68.700 Millones (12×3=36 bits)

14 bits

16.384

4,4 Billones (14×3=42 bits)

16 bits

65.536

281 Billones (16×3=48 bits)

 

Archivos sin compresión RAW y TIFF

El formato de imágenes RAW (“crudo” en inglés; en el caso de las imágenes, entiéndase como “Formato de Imagen sin modificaciones” a diferencia del JPG que ya lleva aplicado ajustes) es un formato de archivo digital de imágenes que contiene la totalidad de los datos de la imagen tal y como ha sido captada por el sensor digital de la cámara fotográfica.

Si disparamos dos fotos del mismo motivo, una en JPG con baja compresión de datos (alta calidad) y otra en RAW, seguramente se verá mejor la tomada en JPG: tendrá mayor nitidez/enfoque, mejor contraste, mejor iluminación y los colores aparecerán mejor representados. Esto es debido a que una cámara digital suele aplicar distintos filtros digitales para mejorar la imagen, lo que podemos llamar un revelado inmediato. Sin embargo, el formato RAW nos muestra la foto tal y como el sensor la capturó, sin ningún filtro de mejora. Se verán colores más neutros, menos saturados, un enfoque más blando y una iluminación que dependerá de la exposición que hicimos, más visiblemente sobre o subexpuesta si fuera el caso. Sin embargo, una foto en JPG, al estar en modo RGB tiene 24 bits/píxel (8 por canal) frente a los 30 a 48 bits/píxel (12 a 14 por canal) que suele contener la imagen obtenida al revelar el archivo RAW. Los 24 bits del RGB serán suficientes para ver toda la gama de colores posibles, pero serán claramente insuficientes cuando queramos realizar ciertos ajustes a la imagen (iluminación, corrección de tonalidades, etc.), sobre todo si no hemos acertado 100% con la exposición correcta, el archivo RAW nos deja mayor margen de reajuste.

Por otro lado, una imagen en formato RAW, aunque en apariencia parezca más pobre, contiene muchísima más información y será muy manipulable al ajustar luces y colores. Comparado con JPG, el problema es su tamaño, ya que ocupa sensiblemente más que su equivalente en JPG. Comparado a formatos de archivo con compresión de datos sin pérdida de información como TIF o PNG, el problema se reduce a la necesidad de “revelarla” antes de poder procesarla normalmente para cualquier uso.
El formato TIFF (Targget image file format) es un formato de imágenes, la imagen guarda todos los datos pixel a pixel sin realizar ningún cambio, ello hace que su peso en Kbytes sea mucho mayor que el JPG que si comprime los datos. Un mito que ha de desterrarse es la idea de que el formato TIFF no permite comprimir las imágenes, admite opcionalmente el sistema de compresión sin pérdida de calidad, el conocido como LZW, muy poco utilizado ya que alivia al archivo en muy pocos bits.

Es un archivo que suelen utilizar los profesionales, para impresión de grandes formatos y como exportación de la información obtenida de los archivos RAW procesados, ya que los archivos RAW tienen la información encriptada y no se puede volver a guardar la información en el mismo archivo, por lo que el TIFF es un buen compañero para el profesional que precisa de la máxima calidad de imagen y que un archivo con compresión de datos como JPG no puede ofrecer.
Un aspecto muy práctico del formato TIFF es que permite almacenar capas, es decir, más de una imagen en el mismo archivo.
Es un formato muy propicio para guardar los archivos extraídos del RAW porque también almacena 16 bits.