Bienvenida arrow Guías arrow Sobre la calidad de las imágenes digitales
Sobre la calidad de las imágenes digitales PDF Imprimir E-Mail
Conceptos básicos y no tan básicos, por Efraín García y Rubén Osuna   
Friday, 22 de July de 2005

En este artículo tratamos de ofrecer una guía para la lectura de fuentes externas, o una síntesis integrada de los fundamentos de la imagen digital, es decir, una pre-digestión de un material variado y a veces técnicamente difícil. Hasta donde sabemos, no hay un texto similar en español, por lo que esperamos que sea útil para todos los que quieran dedicarle un poco de tiempo, y de paciencia, al tema.



0. Introducción.

La calidad de una imagen digital depende de muchos factores, algunos de los cuales puramente subjetivos. Pero hay dos de ellos muy importantes, y que se pueden medir. Son la cantidad de detalle y el nivel de contraste de ese detalle. Ambos factores están estrechamente relacionados y puede decirse que son las dos caras de una misma moneda. Una imagen con más detalles y más contraste será preferida por cualquier observador a la misma imagen pero reproducida con menos detalles y con menor contraste.

Pero, ¿qué factores determinan a su vez la cantidad de detalle captado o reproducido y su nivel de contraste en una imagen digital? En la primera sección analizaremos de qué depende la capacidad máxima o teórica de resolver detalle de un objetivo y un sensor. Sin embargo, cuando medimos el detalle realmente captado o reproducido descubrimos que es inferior al que teóricamente podrían proporcionar el objetivo y el sensor combinadamente ¿Por qué? Dedicaremos la segunda sección a responder a esa pregunta. En la tercera sección completaremos el análisis teórico explicando que el detalle realmente captado o reproducido puede tener distintas "calidades", en función del nivel de contraste de ese detalle. Hablaremos también sobre los determinantes de esos niveles de contraste.

En la cuarta sección empezaremos a abordar temas más concretos, como el impacto relativo de la densidad de "píxeles" (resolución en sentido estricto) y el número de éstos en la calidad de la imagen digital. La quinta sección trata la relación entre la densidad de "píxeles", el tamaño de las celdillas capturadoras de luz o fotosites y la llamada relación señal-ruido, que es otro de los determinantes de la calidad de la imagen digital. La sexta sección estará dedicada a comentar los determinantes de la profundidad de campo y la perspectiva, lo que nos facilitará el tratamiento de los temas relacionados con la impresión en la séptima sección. La sección octava sintetiza todo lo anterior e investiga qué características debería tener el sensor ideal. A estas alturas ya sabremos qué características de los objetivos y los sensores afectan a la calidad de imagen en un sentido o en otro, pero algunas de estas características están relacionadas inversamente, lo que plantea la duda de cómo combinarlas. Para acabar, en la sección novena profundizaremos en el análisis de las diferencias entre formatos, sus ventajas e inconvenientes.

La décima sección son conclusiones, con algunas predicciones sobre el desarrollo futuro de los sensores. La undécima y última sección recoge referencias que recomendamos consultar para ampliar aún más los conocimientos sobre el tema, todas ellas de fácil acceso en internet. A lo largo del texto habrá también referencias adicionales concretas que vendrán señaladas a veces con una flecha (->), y que permiten consultar las fuentes aludidas o acudir a un análisis un poco más detallado que el ofrecido aquí.



1. Capacidad resolutiva del objetivo y capacidad resolutiva del sensor.

Usaremos indistintamente los términos 'frecuencia de la señal', 'capacidad resolutiva del objetivo' o 'resolución del objetivo', pero éste es un dato que por sí mismo no dice gran cosa, pues debe acompañarse del dato del contraste o modulación, mediante funciones que relacionen ambas variables. Estas se conocen como funciones de transferencia de contraste, de rendición tonal o de frecuencia de respuesta (MFT, modulation transfer function). Un texto excelente sobre el tema es el de Ronald W. Harris citado en las referencias al final de esta página.

Dichas funciones se representan como curvas que relacionan, para cada abertura y longitud focal de un objetivo, y en un punto concreto de la imagen, la relación continuamente decreciente entre contraste (en %) y resolución espacial (en pares o ciclos por milímetro) en la dirección sagital (radial) y tangencial (hay por tanto dos MTFs en cada punto). También pueden presentarse como la relación entre contraste (en %) y distancia respecto del centro de la imagen (en milímetros), para resoluciones escogidas (en pares por milímetro, suelen ser 5 lp/mm, 10 lp/mm, 20 lp/mm y 40 lp/mm, pues son las determinantes en impresiones de tamaño moderado) y a una abertura y longitud focal determinadas.

Conforme nos alejamos del centro se produce una degradación (pérdida de resolución y contraste), que en algunos casos puede llegar a ser sustancial. El impacto de ese fenómeno en la imagen final viene determinado por distintos factores (->), y la importancia del problema para el fotógrafo dependerá del tipo de fotografía. No tendremos en cuenta explícitamente este problema. Simplemente, cuando hablemos de capacidad resolutiva del objetivo, nos estaremos refiriendo al área central de la imagen.

Además de la resolución y el contraste hay otros aspectos de la calidad de un objetivo que una MTF no capta, como son la rendición del color, la resistencia a los destellos y la calidad de la imagen fuera de foco (conocida como bokeh) (->).

Al hablar de sensores utilizaremos como sinónimos los términos 'densidad de píxeles', 'frecuencia espacial', 'límite Nyquist', 'frecuencia de muestreo' o 'capacidad resolutiva máxima o teórica'. Este será el dato relevante cuando discutamos los requerimientos de la impresión, por ejemplo.

La resolución máxima teórica no coincide en general con la real. Las resoluciones reales se miden con una carta en la que hay racimos más o menos apretados de líneas negras separadas entre sí por líneas blancas (véase esta como ejemplo, o esta otra, también muy empleada, aunque aquí pueden encontrarse varias más).

Cuando no se emplea película y se analiza la imagen proyectada por el objetivo, hablamos de aerial image resolution (->). Las líneas blancas y negras de la carta de resoluciones son los famosos "pares". Cuando se emplea una carta con ondas sinusoidales se puede hablar de "ciclos" por milímetro, en vez de pares. Un ciclo parte de un valor 0, pasa a un valor 1, baja de nuevo a 0, después a -1 y nuevamente a 0. El 1 puede representar el color negro y el -1 el color blanco, y por tanto un ciclo completo equivale a un par. La capacidad resolutiva con suficiente contraste de los mejores objetivos de 35mm supera con mucho los 100 pares por milímetro en el centro de la imagen (se necesita al menos un 5% de contraste para ver el detalle, aunque un 15% debe considerarse un mínimo razonable en la práctica) (->).

No obstante, si fotografiamos la carta y analizamos el negativo, las resoluciones obtenidas serán resultado no sólo de la aerial image resolution del objetivo, sino también de las propiedades de la película o sensor empleado. En conjunto la resolución de un sistema responde a la fórmula R = 1/(1/r1 + 1/r2 + 1/r3...) donde las r1, r2, r3... son las capacidades resolutivas de cada componente del sistema (objetivo, sensor o película, etc.) y R es la resolución final del conjunto. Es interesante el artículo "Resolution", de Makoto Honda, cuyo enlace se ofrece al final.

La capacidad resolutiva combinada de objetivo y película química ha sido ampliamente analizada, y se sabe que con bastante esfuerzo alcanzará los 100 pares por milímetro en el negativo (->). Es más razonable esperar resoluciones máximas de entre 80 y 90 pares en el negativo, empleando película de alta resolución y en condiciones controladas. Sin embargo, cuando fotografiamos a pulso, el motivo se mueve, enfocamos con rapidez o empleamos película más sensible, la resolución máxima que podemos esperar cae rápidamente, situándose entre los 20 y los 40 pares por milímetro en el mejor de los casos. Al ampliar el negativo para obtener una copia en papel se producen pérdidas de resolución adicionales. Si disponemos de 20 pares por milímetro en el negativo de 35mm, lo más que podremos obtener en un A4 son unos 2 pares por milímetro. Es sumamente recomendable consultar en este punto la metodología de análisis de Erwin Puts.

La situación actual de los sensores es algo distinta. En tiempos de la fotografía química los objetivos fueron mejorando y aumentando su capacidad resolutiva conforme las emulsiones permitían resolver más detalle. Los objetivos de 35mm diseñadas para fotografía química tienen una capacidad resolutiva típicamente superior a la de los sensores digitales de las cámaras réflex actuales, sobre todo en el centro de la imagen.

Veamos las frecuencias espaciales o capacidades resolutivas de algunos sensores actuales. Según los cálculos de Bob Atkins, redondeando, el sensor de la Canon 10D resuelve casi 70 pares por milímetro (píxeles de 7,7 micras de lado) y la Canon 20D (o la 30D) casi 80 pares (píxeles de 6,4 micras de lado). Estos números son fáciles de comprobar. El sensor de esas dos cámaras es de 22,7x15.1mm, y el tamaño de la imagen en la 10D es 3072 x 2048 píxeles, de manera que la máxima resolución (también 'frecuencia espacial', 'frecuencia de muestreo' o 'límite Nyquist') horizontal es 2048/15,1 = 135,63 píxeles por milímetro = 67,8 pares por milímetro.

Hay una fórmula que permite el cálculo directo de la resolución a partir del dato de la longitud de un lado del fotocaptador, medida en milímetros (variable p). R es la resolución máxima o límite Nyquist en pares por milímetro. Tenemos entonces que R = 1/(2p). La fórmula se puede emplear con la Canon 30D, para confirmar el dato de Atkins, o para calcular la capacidad resolutiva de otras cámaras. En efecto, las 6,4 micras de lado de los fotocaptadores de esta cámara son 0,0064 milímetros, para los que la fórmula da unos 78 pares.

La Canon EOS-1Ds Mark II, con un sensor 24x36mm, tiene 70 pares por milímetro de resolución máxima. La Canon 5D, también con un sensor de formato 35mm sin recorte, tiene una cifra relativamente baja, de unos 60 pares. En cambio, la Nikon D2X tiene nada menos que 90 pares por milímetro de frecuencia espacial, cifra sólo ligeramente superada por las Olympus E-300, E-330 y E-500.



2. Resolución real de una cámara digital

Pero las cifras de capacidad resolutiva que acabamos de ver son optimistas. La culpa la tiene el aliasing. El aliasing es el error que se produce cuando se trata de adivinar unos detalles de forma o color a partir de una información demasiado escasa. Se trata de un simple error de estimación. Pero ¿por qué las cámaras digitales tienen que estimar?

Las cámaras digitales tienen una gruesa capa de filtros y cristales protectores. Uno de esos filtros provoca por sí mismo un problema de aliasing, pero es un filtro indispensable. Estamos hablando del filtro-mosaico Bayer (->), que permite la fotografía digital en color. Cada fotocaptador tiene sobre sí un cristal de un color primario (verde, rojo o azul) que sólo le permite registrar información sobre intensidad luminosa para ese color. Después la cámara compone la imagen final en función no sólo de la información registrada en cada punto, sino de los colores y las intensidades de los puntos de alrededor. La cámara estima los colores, lo que conduce a problemas de moiré cromático (->), que es el efecto que en la fotografía tiene el problema de aliasing derivado de la estimación de los colores. Esta interpolación que completa la información que falta no es necesaria en un sensor tipo Foveon (->) (o en sensores monocromo, como el de la Kodak DCS-760M, sin filtro de color alguno), lo que explica que este tipo de sensores multicapa no presenten el mencionado moiré cromático.

Pero hay tro filtro, llamado de paso bajo o anti-alias, que trata de evitar la aparición de otro problema de moiré debido al aliasing. Esta vez el problema se debe a que la frecuencia de la señal (transmitida por el objetivo) supera a la frecuencia de muestreo (captada por el sensor). Si la señal es de 70 pares por milímetro y la frecuencia de muestreo es de sólo 50 pares, el procesador nos mostrará una estructura de 50-(70-50) = 30 pares por milímetro, que es obviamente una estructura falsa, irreal, que puede presentarse en forma de moiré (->). Nos vamos a centrar un poco más en este fenómeno, que tiene un gran impacto en la imagen digital.

Si la señal y el muestreo no están perfectamente sincronizados puede ser necesaria una frecuencia de muestreo superior a la frecuencia de la señal (más del doble en teoría) para reconstruir ésta correctamente, según establece el teorema de Nyquist-Shannon (->).

Para solucionar el problema del aliasing por exceso de señal tenemos dos opciones: elevar sustancialmente la frecuencia de muestreo o bien alterar la señal mediante un filtro de paso bajo. En realidad se aplica una combinación de ambas, mediante el uso de filtros que actúan sobre la señal y una frecuencia de muestreo (límite Nyquist) lo más alta posible que reduzca la señal sobrante. Ninguna de las dos vías es capaz de dar hoy día una solución completa al problema por sí misma.

En efecto, según el teorema de Nyquist-Shannon, se requiere una frecuencia de muestreo que más que doble la frecuencia de la señal para reproducirla perfectamente. Pero ésta es demasiado alta en los objetivos de 35mm para conseguir cumplir con dicha exigencia, lo que además no tendría mucho sentido, pues para poder captar detalle fino con bajo contraste estaríamos empleando una elevadísima capacidad resolutiva teórica, que tiene sus costes. El nivel óptimo está en algún punto suficientemente alto como para que los excesos de frecuencia ocasionales no supongan un problema serio.

Lo mismo puede decirse de la película escaneada: la frecuencia de muestreo deberá ser muy superior a la frecuencia de la señal captada por el fotograma. En este análisis Roger N. Clark comprueba que la señal de muestreo tiene que triplicar la frecuencia de la señal para una correcta reproducción digital de ésta. Esto da una idea de hasta qué punto el tamaño de los archivos digitales procedentes de un escaneo es mayor de lo que sería necesario idealmente.

La alternativa del filtro tampoco está extenta de limitaciones. Lo ideal sería disponer de uno que redujera a cero todo el exceso de señal por encima de la capacidad máxima de muestreo del sensor sin alterar el resto de la señal, pero en la práctica los filtros ópticos no son tan eficientes. Hay que elegir entre eliminar una mayor parte del exceso de frecuencia, aun a riesgo de afectar a la señal que el sensor sí puede captar correctamente, o hacer un tratamiento menos agresivo que no elimine todo el exceso ni evite las consecuencias del aliasing en todos los casos. El problema de los filtros es que afectan a la imagen incluso cuando no son necesarios (señal de baja frecuencia), pues no se pueden desactivar. El efecto es una difuminación de la luz que se traduce en una pérdida de resolución efectiva que puede llegar a ser muy severa, de incluso el 50% (->), como veremos. Puede optarse sin embargo por no añadir un filtro al sensor, pero podría ocurrir lo contrario: cuando las circunstancias lo hagan necesario el exceso de señal puede afectar a la imagen representada, y nada habrá ahí para atenuar el efecto. Pueden verse las consecuencias en la Kodak DCS Pro SLR/c de casi 14 millones de píxeles (también es el caso del módulo digital R de Leica, con sensor Kodak).


Hay otros factores que, si bien pueden minimizarse, siempre acaban teniendo una influencia degradante, como son las vibraciones al fotografiar a pulso, o las provocadas por los mecanismos de la propia cámara incluso cuando empleamos un trípode.

Veamos cuál es el alcance real de esas pérdidas de resolución efectiva en condiciones controladas. Partamos de los datos de esta comparación entre la Nikon D2X, la Canon 1Ds Mark II y la Kodak DCS Pro SLR/c. La resolución efectiva de la Nikon D2X es de 3600 líneas verticales y 2000 líneas horizontales, una fracción de la resolución teórica del sensor, que es de 4288 verticales y 2848 horizontales. La Canon 1Ds-Mark II, por su parte, resuelve 4200 líneas verticales y 2400 horizontales, cuando la capacidad máxima teórica del sensor es de 4992 verticales y 3328 horizontales. La pérdida de resolución horizontal y vertical no tiene por qué ser igual, y ambas serán también distintas para cada cámara. No hemos medido resoluciones diagonales o en otros ángulos.

En la Nikon D2X se pasa de unos 90 pares por milímetro de resolución horizontal y vertical a 76 pares por milímetro verticales y 64 pares horizontales. La Canon 1Ds-Mark II pasa de 70 pares por milímetro a 58 verticales y 50 horizontales. Por su parte, la Kodak DCS Pro SLR/c, sin filtro anti-alias, tiene, como cabía esperar, una capacidad resolutiva real intermedia (3600 líneas verticales y 2200 líneas horizontales), pero con una cierta proclividad al moiré. Una corrección del problema, si se presenta, conllevaría una pérdida de resolución adicional. El sensor de la cámara Kodak es el que tiene un límite Nyquist más bajo de las tres, poco más de 60 pares por milímetro, si bien la resolución real es de 46 pares horizontales y 50 verticales. La ausencia de filtro anti-alias y un límite Nyquist inferior explican la mayor proclividad al moiré de este sensor y su mayor resolución real o efectiva relativa. En cambio, la cámara Sigma SD10, equipada con un sensor Foveon y sin filtro anti-alias, no muestra pérdida de resolución efectiva alguna (->). Como vemos, no sólo el número de píxeles juega un papel en el resultado final.

Para ver cómo se han hecho los cálculos véanse estas instrucciones. Es recomendable leer también estos dos (1, 2) análisis de Erwin Puts, que muestran ejemplos del alcance del deterioro en la resolución efectiva de distintos sensores. Hay que tener en cuenta que, de todas formas, la merma de resolución en un caso real dependerá del motivo que estemos fotografiando (es muy importante no olvidar esto).

En definitiva, el aliasing, con filtros correctores o sin ellos, el filtro-mosaico Bayer de colores primarios y otros factores, no permiten hablar sin más de resolución efectiva de una cámara como el equivalente al número de fotocaptadores por milímetro del sensor.



3. La "calidad" percibida en una imagen fotográfica.

La calidad percibida en una imagen depende de la resolución real o efectiva, que acabamos de explicar, pero también del nivel de contraste. Resolución y contraste son las dos caras de la misma moneda. Cuando el contraste cae por debajo de cierto nivel dejamos de percibir detalle (al menos un 5% es necesario). Por otra parte, el detalle se muestra de forma más clara y nítida cuanto más alto sea el contraste.

Pero ¿qué es el contraste exactamente? El contraste es la diferencia de tonalidad con la que se capta, percibe o reproduce un par de líneas, negra y blanca. El contraste es máximo, del 100%, cuando se consigue distinguir ambas líneas perfectamente, como una línea puramente negra y una línea puramente blanca. Pero cuando el contraste es menor veremos dos líneas grises de intensidades diferentes. En el siguiente gráfico vemos cómo, a menor contraste, menos nítida es la separación de líneas.

contrast.gif
Contraste y nitidez de imagen (Norman Koren©).

Las curvas MTF que relacionan resolución y contraste para un objetivo tienen un perfil decreciente, es decir, el contraste se reduce conforme aumentamos la resolución. Esto quiere decir simplemente que el objetivo tiene dificultad en distinguir nítidamente los detalles cuanto más finos son éstos. Si el gráfico que acabamos de presentar fuera una fotografía, la parte derecha, donde la resolución es mayor, debería verse menos nítidamente que la parte izquierda. No sólo los objetivos, sino también la película fotoquímica, el papel y demás elementos de la cadena de imagen tienen su propia función de contraste, es decir, su propia capacidad de distinguir con nitidez los detalles. El siguiente gráfico presenta un ejemplo elocuente:

resolution_contrast.gif
Contraste, resolución y nitidez de imagen. Funciones MTF de los diferentes eslabones de la cadena de imagen (Norman Koren©).

El contrate final de la imagen resultante dependerá de las funciones MTF de cada eslabón del proceso. El contraste resultante es el producto de todas las funciones. Las MTF del objetivo empleado en la ampliación (fotografía química) y del papel de impresión vienen a unirse a la cadena multiplicativa. Por tanto, tendremos que MTFf = MTF1xMTF2(xMTF3)xMTF4, donde f significa la foto impresa, 1 es el objetivo, 2 el sensor o película, 3 objetivo de la ampliadora y 4 el papel. Por eso decíamos en la sección anterior que la ampliación e impresión degradaban la imagen del negativo. Nos referiremos en adelante a la MTF del objetivo o de objetivo y sensor, según se indique. Véase este análisis de Erwin Puts, y los de Norman Koren, Makoto Honda y, una vez más, de Ronald W. Harris, citados al final de este artículo.

El área situada bajo la MTF y hasta el límite Nyquist es uno de los factores determinantes de la calidad percibida en la imagen. Para un análisis de esta idea, deben consultarse los documentos de Erich Heynacher y Fritz Köber, ingenieros de Carl Zeiss, y de Bob Atkins, citados en la última sección de este artículo. Volveremos al tema cuando introduzcamos en el análisis la impresión.

nyquist1.gif
Curvas MTF y límite Nyquist (Bob Atkins©).

El gráfico que precede a este párrafo, tomado de uno de los artículos de Bob Atkins, representa dos MTFs de un mismo objetivo de 35mm. En el eje de ordenadas (vertical) tenemos el nivel de contraste, medido de cero a uno. En el eje de abscisas tenemos la resolución, es decir, el número de pares de líneas por milímetros para la que se da el nivel de contraste. La línea negra es la MTF a una abertura de f/22, mientras que la línea azul representa la MTF a f/5.6. Él área bajo cada curva a la izquierda de la línea roja, que representa el límite Nyquist del sensor (hemos supuesto que tiene unos 75 pares de capacidad resolutiva), es determinante para la percepción de calidad en la foto. En principio tendremos más contraste a f/5.6. Sin embargo, el área bajo las curvas a la derecha del límite Nyquist es un indicador de la magnitud del exceso de señal, por lo que a f/5.6 tendremos probablemente una pérdida de resolución efectiva mayor que a f/22.

Por consiguiente, en principio, lo ideal es disponer del mayor área posible bajo la MTF y a la izquierda de la línea roja y el menor área posible bajo la MTF y a su derecha, para lo que es conveniente disponer de altas resoluciones y filtros, como hemos visto. Matizaremos este resultado cuando hablemos de la impresión.



4. Para conseguir más detalle, ¿más píxeles o más densidad de píxeles?

La verdad es que hay cierta discusión acerca de si da más cantidad de detalle un sensor más grande con más píxeles o un sensor más pequeño con menos píxeles pero con más densidad. El siguiente dibujo puede ayudar a aclarar la idea:

3_1.jpg

Supongamos que hacemos un retrato con dos cámaras, una equipada con un sensor sin recorte (formato completo de 35mm) de 16MP y otra con un sensor APS de 12MP. Si tomamos las dos fotos con el mismo objetivo y los mismos parámetros (focal, abertura, enfoque, distancia del motivo) obtendremos dos fotografías en las que el motivo tendrá idéntico tamaño absoluto en una y en otra. La diferencia estará en el área de color azul (pues el sensor APS implica un auténtico recorte de la foto).

Es obvio que si la densidad de píxeles es mayor en el sensor APS el motivo –la cara del retratado– tendrá más detalles (más píxeles) en el sensor APS que en el sensor de formato completo. Lo que ocurre es que un escenario como este es poco verosímil. Lo normal es que el área azul sobre o no sobre. Si no sobra, el fotógrafo que opera con la cámara APS reencuadrará el motivo para rodearlo de un área proporcionalmente igual al área azul, pero dentro del marco APS. En ese caso el motivo tendrá que reducir su tamaño absoluto y, por tanto, la cantidad de puntos que describan la cara del retratado tendrá que disminuir también. Al contrario, si el área azul no era necesaria, el fotógrafo que usa la cámara de formato completo ajustará el encuadre de manera que la cara del retratado ocupe una parte mayor de la foto, y por consiguiente el número total de píxeles que dibujan el motivo será mayor.

4.jpg

Hay dos formas de reencuadrar. La primera consiste en movernos, acercándonos o alejándonos del sujeto, lo que afectará a la perspectiva. La segunda consistiría en cambiar la longitud focal del objetivo empleada en una de las dos cámaras, pero sin movernos del sitio, lo que no afectará a la perspectiva. Si optamos por la segunda posibilidad tendremos que emplear un objetivo de menor longitud focal real en la cámara con sensor más pequeño para poder obtener el mismo ángulo de visión, que si no nos movemos nos dará también el mismo encuadre.

Usando uno u otro procedimiento, imaginemos que la cara del personaje cubre ahora todo el fotograma en ambas cámaras (segundo dibujo). El tamaño relativo (al fotograma) de la cara del retratado será el mismo. En efecto, el fotógrafo “mete” un motivo en un recuadro, además de ajustar otros parámetros que sirven para fijar cómo aparece ese motivo en el recuadro. En ese caso la cámara de formato completo describirá esa cara con unos 16 millones de píxeles y la cámara APS con sólo 12 millones, y en principio veremos más detalle en la foto de la cámara de formato completo. Es más, si fotografiamos sin movernos del sitio y cambiando el objetivo, la mayor longitud focal real de la cámara con el sensor más grande puede suponer una ventaja adicional. Sin embargo, si se requiere una gran profundidad de campo, la cámara con el sensor más grande y el objetivo de mayor focal puede forzarnos a cerrar mucho el diafragma, lo que afecta también a la calidad. Sobre todos estos detalles es muy recomendable el excelente análisis de Steve Hoffmann (1, 2 y 3), esta comparativa (4) de la Nikon D2X y la Canon 1Ds Mark II centrada en las diferencias en profundidad de campo, esta excelente explicación técnica (5) de Lars Kjellberg, que analiza por qué un formato menor puede dar más calidad de imagen cuando una gran profundidad de campo es importante y esta reflexión de Erwin Puts a partir de una comparación de la Canon 5D y la Canon 20D (6).

Sin embargo, sabemos que la densidad de píxeles es una variable clave para determinar la resolución real de una cámara, pues reduce los problemas de aliasing. Hay que comprobar entonces hasta qué punto una mayor densidad no compensa un número inferior de píxeles. Volvamos, a título de ejemplo, a la comparación entre la Nikon D2X, la Canon 1Ds Mark II y la Kodak DCS Pro SLR/c. Observamos cómo las fotografías de la carta de resolución de las dos primeras cámaras mencionadas son idénticas, cubriendo exactamente la misma porción (el área enmarcada en rojo), como debe ser. La cámara Canon, a pesar de la menor densidad de su sensor, tiene una mayor capacidad de resolver detalle. Sin embargo, la Kodak, que tiene un mayor número de píxeles que la Nikon, presenta una resolución efectiva muy similar. No obstante, si corrigiéramos el moiré, la cámara Kodak perdería más resolución efectiva, situándose probablemente por debajo de la Nikon. La densidad es un factor muy importante, y logra compensar una diferencia en número de píxeles, pero sólo hasta cierto punto. Retomaremos este tema cuando tratemos la impresión de las fotografías.

Otro factor que afectaría a las diferencias es el uso de objetivos para un formato mayor en el sensor más pequeño, lo que evitaría la a veces pronunciada degradación de la señal en los bordes del fotograma dando una calidad más uniforme. Además, problemas como el viñeteo se atenuarían en parte (->), aunque no parece ser tan grave en sensores de formato completo como algunos suponían (véase esta prueba de una Canon 1Ds con un 16-35mm f2.8L a 16mm, o esta que compara los resultados de la Canon 5D y la Canon 20D con un zoom EF 24-70mm f/2.8L y EF 50mm f/1.4). El problema de usar objetivos para un formato mayor es que hay que aceptar un determinado factor de recorte (igual a la razón de las diagonales de los dos sensores). Esto supone en la práctica no usar el objetivo que presenta el problema (grandes angulares). No deja de ser una 'solución', pero un tanto radical. Por otro lado, también los sensores sin recorte se pueden usar con objetivos para cámaras de formato medio (645 o 6x6) mediante adaptadores. Salvo por la menor capacidad resolutiva de éstos, la 'solución' al problema de viñeteo sería equivalente.

Por último, hemos visto curvas MTF decrecientes, y el sensor más grande necesita resolver menos detalle para una determinada impresión que el sensor más pequeño. Es evidente que el sensor más grande proporcionará una imagen impresa con más calidad (más contraste). Olympus ha propuesto un nuevo formato reducido de 18x13,5mm y ha desarrollado objetivos de gran calidad que pretenden mejorar las prestaciones conocidas de los objetivos para cámaras de formatos superiores, proporcionando mayor contraste del normal a resoluciones más altas. Pero es obvio que cuanto mayor sea el formato con el que se compare, más difícil resultará igualar las calidades de las fotografías impresas (el fotograma de 35mm tiene 3,6 veces más superficie, aunque Olympus tomó probablemente como punto de referencia el formato APS-C, que hasta hace poco todos consideraban el nuevo estándar). Pero discutiremos este tema con detenimiento cuando hayamos introducido y analizado algunos conceptos adicionales. 



5. La razón señal-ruido y el tamaño de los fotocaptadores.

La siguiente pregunta es si hay alguna diferencia en la fotografía obtenida a partir de dos sensores de diferente tamaño pero igual número de píxeles (por ejemplo, la Nikon D2X y la Canon 5D). Dejando a un lado las diferencias que acabamos de analizar, el sensor más grande tendrá fotocaptadores más grandes, lo que tiene ventajas.

Es sabido que hay una relación entre el tamaño de la superficie realmente sensible a la luz de las celdillas del sensor (->) y la razón señal-ruido (signal-to-noise ratio, SNR). El ruido depende de varios factores (->), uno de los cuales, muy importante, viene determinado por el tamaño de las celdillas que captan la luz. Los fotones capturados por un CCD siguen una distribución aleatoria de Poisson (->). Por tanto, la raíz cuadrada del número de fotones captado es ruido, es decir, fotones que han caído en la celda por error. Es lo que se conoce como 'photon noise' o 'shot noise'. El tamaño de la celda determina el número de fotones capturado en un período determinado, y cuantos más fotones atrapemos mayor será la razón señal-ruido. En efecto, si se capturan 400 fotones, 20 serán ruido (5% del total), y la razón señal ruido será de 400/20=20. No obstante, si la captura es de sólo 16 fotones, 4 serán ruido (el 25%), y la razón señal-ruido será igual a 16/4=4, mucho menor (véase esta interesante página de Roger N. Clark para una explicación más técnica y detallada). Cuando aumentamos la ISO lo que hacemos es interpretar la fotografía a partir de menos fotones capturados, amplificando y por eso la calidad de la imagen se degrada. El 'photon noise' no es el único origen del ruido finalmente observado, pero sí impone una fuerte restricción a nuestras posibilidades de preservar la SNR cuando reducimos el tamaño de los fotocaptadores. Otras dos causas importantes de ruido están relacionadas con la conversión analógico/digital ('read noise') y con la temperatura del sensor ('thermal noise'). Véase este este documento técnico de Kodak para un listado exhaustivo de las causas del ruido en los CCDs.

Hay que decir aquí que los cálculos de tamaño del "píxel" que solemos dar sólo establecen la correspondencia entre el número de píxeles (o de celdillas con un fotosensor) y la superficie total del sensor. La superficie realmente recolectora de luz es menor, pues parte del espacio reservado a cada píxel está ocupado por circuitería electrónica. La superficie realmente sensible a la luz es variable, y depende del diseño de cada sensor, siendo el dato realmente determinante para la razón señal-ruido. No obstante, el tamaño de la celdilla es la mayor restricción a la hora de determinar la superficie fotosensible de un sensor, por lo que se puede establecer una relación directa entre ésta y la razón señal-ruido.

Una cámara es un sistema integrado (->), y hay que buscar un equilibrio entre todos sus componentes. ¿Resolución o limpieza de la foto? Ambas están ligadas mediante una relación inversa, pues el ruido a ISOs altas llega a destruir detalle que el sensor capta a ISOs bajas (cosa que ocurría también con la película, y en mucha mayor medida), y lo mismo ocurre con la rendición del color, que empeora en presencia de ruido. El progreso técnico va modificando esa frontera de posibilidades tecnológicas.

Para cada estado de la tecnología hay un conjunto de combinaciones posibles, de entre las que podemos elegir. La Nikon D2X, por ejemplo, ofrece una excepcional capacidad de captar detalle (véase la foto del graderío), si bien el ruido se hace aparente a ISOs iguales o superiores a 800. Eso es producto de una elección, como otra cualquiera. En cambio, hemos conocido cámaras con un amplísimo rango de sensibilidades y muy bajo ruido, pero a cambio de una resolución también muy baja (véase la antigua Kodak DCS620x). Se viene operando sobre varias de las causas del ruido, aunque este avance se hace cada vez más costoso y más lento.



6. Profundidad de campo y perspectiva.

Acabamos de hablar de la perspectiva y su (no) relación con la longitud focal. Merece la pena detenerse brevemente en este punto.

Hay que tener en cuenta que el uso de un mismo objetivo de 35mm en sensores de tamaños distintos tiene efectos sobre la profundidad de campo, que hay que tener en cuenta, pero no sobre la perspectiva (->).

La distancia de observación de una foto que nos proporciona una perspectiva natural viene dada por la fórmula e=f*v, donde e es la distancia a la que se debe contemplar la foto, f es la longitud focal y v son las veces que hemos ampliado el fotograma para alcanzar el tamaño de la foto impresa. La impresión que tenemos de la perspectiva en una foto será natural si el ángulo de visión de la cámara al tomar la foto es el mismo que tenemos nosotros al mirarla. Si usamos un objetivo de 50mm y observamos el negativo directamente, necesitamos 50mm de distancia para evitar distorsiones en nuestra observación. Pero a menos de 250mm (25cm) el ojo humano no es capaz de captar todo el detalle, por lo que habría que imprimir la foto a un tamaño al menos 5 veces superior al fotograma, es decir, a 12x18cm ó 5x7 pulgadas. Obsérvese que la diagonal de esa impresión está muy cerca de los 25cm.

Si esa distancia de observación es incómoda por demasiado próxima (peor con la edad), y queremos ver la foto a más distancia, un tamaño de impresión mayor será necesario para tener una perspectiva natural que no distorsione nuestra percepción de la imagen. Por tanto, si queremos mantener el tamaño de impresión original y una perspectiva natural observando a más distancia, necesitaremos un objetivo de mayor longitud focal, siguiendo la fórmula.

Un retrato con un objetivo de 100mm hecho a dos metros del sujeto nos permite ver una foto impresa de 5 veces el tamaño del negativo a 50cm. El mismo retrato con objetivo de 50mm (hecho a un metro del retratado para tener la misma foto) nos exigiría ver el resultado ampliado a sólo 25cm, una distancia suficiente pero menos cómoda. Por esto, entre otras cosas, son ideales los teleobjetivos cortos para retratos.

Alguien podría pensar que la perspectiva de las dos fotos no será la misma en el negativo, y ello es verdad, pero sólo porque la distancia desde la que hemos fotografiado al sujeto es diferente. La perspectiva es independiente de la longitud focal en sí. Si empleamos distintas longitudes focales desde el mismo punto para fotografiar un motivo la perspectiva captada será la misma (->). Recomendamos la introducción ('Artistic reflections') de este documento de Erwin Puts, aunque similares conclusiones pueden encontrarse en infinidad de documentos que tratan sobre el tema, y que ahora se comprenderán mejor.



7. Resolución e impresión.
 
El ojo humano no distingue a simple vista, en el mejor de los casos, más allá de 6 pares por milímetro a unos 25 centímetros de distancia (véase este análisis de R. N. Clark para un tratamiento más técnico, y vuelvan a repasar el artículo de Ronald W. Harris).

Consideraremos una impresión A4 porque es un tamaño de papel muy común que facilita la compresión intuitiva de lo que vamos a explicar. Recordemos lo que ya sabemos sobre perspectiva y logitud focal (tratado en la cuarta sección de este artículo). La distancia a la que debe verse una foto viene determinada por la fórmula que ya presentamos (e=f*v). Un A4 supone una ampliación de unas 8 veces el fotograma de 35mm (24x36mm). Para mirar un A4 a una distancia de 25cm con una perspectiva natural la longitud focal debería ser de unos 31mm, mientras que para una distancia de observación de 50cm la focal ideal es de unos 60cm.

Para una impresión de tamaño A4 (210x297mm, 8,3x11,7 pulgadas) a 6 pares por milímetro se necesita una imagen de 2520x3564 píxeles, es decir, de casi 9 millones de píxeles. Recordemos que 6 pares por milímetro son el equivalente a unos 300 píxeles por pulgada, dado que una pulgada son 25,4 milímetros. Para un A3 a 300ppp serían necesarios algo menos de 18 millones de píxeles, aunque un mayor tamaño de impresión implica más distancia de observación y por tanto es necesaria menor resolución en la impresión para registrar todo el detalle perceptible a simple vista (un A3 a 240ppp requiere unos 12 millones de píxeles).

Los 6 pares por milímetro es una cifra razonable, teniendo en cuenta que, por un lado, estamos suponiendo un tamaño de impresión relativamente pequeño pero que, por otro, fotos de la máxima calidad requieren sólo 3-4 pares por milímetro, que es lo que somos capaces de ver en promedio, y no 6. Es más, el ser humano tiene dificultades para resolver detalle a altas frecuencias, pero también influye menos en nuestra visión la señal a muy bajas frecuencias, por lo que la percepción subjetiva de calidad viene determinada por resoluciones comprendidas entre 0,5 y 2 pares por milímetro en la impresión. Además, la distancia de observación cómoda de una foto suele ser superior a los 25cm asumidos, por lo que se puede emplear menos resolución en la impresión.

Por ejemplo, con 4 pares son necesarios casi 4 millones de píxeles para un A4, y eso ya daría una impresión de gran calidad (se trataría de unos 200 píxeles por pulgada). Por otro lado, una respetable impresión a 180 píxeles por pulgada son 3,5 pares por milímetro en el papel y sólo requiere unos 3 millones de píxeles. Con 6 millones de píxeles podemos imprimir un A4 a 240 píxeles por pulgada, y nos sobraría. Mayores resoluciones sólo permiten apreciar el detalle con una lupa. Cada tipo de papel y cada impresora permiten una densidad de píxeles máxima. En esta página puede consultarse una tabla con los requerimientos para distintos tamaños de impresión (en pulgadas, un A4 corresponde aproximadamente a 8x10 pulgadas).

Por ejemplo, la cámara Nikon D2X ofrece 12 millones de píxeles cuando sólo son necesarios 9, 4 o incluso 3 millones, en cada uno de los tres casos que hemos contemplado. La cámara Canon 1Ds-Mark II tiene 16,7 millones de píxeles, que son suficientes para los requerimientos de la impresión de un A4 a 6 pares por milímetro, e incluso mucho más, si tenemos en cuenta que impresiones más grandes deben verse a más distancia y por tanto necesitan menos resolución. En cambio, la Sigma SD10 ofrece 3,4 millones de píxeles, que resultan en principio insuficientes para una impresión A4 a la máxima calidad.

Pero vimos que la resolución efectiva de estas cámaras era inferior a la resolución teórica. La Nikon D2X tiene una resolución horizontal real de 2000 líneas, que quedan por debajo de las 2520 que un papel de tamaño A4 impreso a 6 pares por milímetro puede mostrar. La capacidad de resolver detalle de la Canon 1Ds-Mark II excede las posibilidades de esa impresión, por lo que para aprovecharla tendríamos que elegir una resolución mayor para el A4 (y usar una lupa para percibir el detalle) o un tamaño de impresión más grande. Por último, la Sigma SD10 resuelve 1550 líneas horizotales y 2325 verticales, cifras que no se verán afectadas si interpolamos (->) para obtener los píxeles que faltan para una impresión A4 a 6 pares por milímetro (lo que equivale a ampliar un negativo químico).

resolution.gif
Curvas MTF, requerimientos de impresión, resolución real y límite Nyquist.

En el gráfico que acabamos de presentar mostramos distintas posibilidades que pueden darse en un sensor. La línea amarilla sería el requerimiento resolutivo que una impresión determinada impone al sensor. La línea roja es el límite Nyquist de ese sensor. Las dos líneas azules representan dos posibles resoluciones reales o efectivas. Si la línea amarilla estuviera a la derecha de la roja sería necesario interpolar para obtener la impresión que deseamos. Las líneas azules siempre estarán algo a la izquierda de la línea roja, pero pueden estar a la derecha o a la izquierda de la amarilla. En el primer caso el sensor habrá captado más detalle del que la impresión podrá reproducir (se pueda percibir o no a simple vista). En el segundo caso la impresión tendrá una capacidad de mostrar detalles superior al sensor. Por tanto,

  • Si se cumple que azul < amarilla < roja, tendremos suficientes píxeles para la impresión, pero una cámara con mayor resolución real mostrará más detalle en el papel.

  • Si se cumple que amarilla < azul < roja, tendremos suficientes píxeles para la impresión, y ninguna cámara podrá mostrar más detalle en ese tipo de impresión (otra cosa es el contraste, como veremos ahora).

  • Si se cumple que amarilla > roja ≥ azul, no tendremos suficientes píxeles para la impresión y será necesario interpolar, y una cámara con mayor resolución real mostrará más detalle.

Por tanto, lo relevante no es tanto el número de píxeles que proporciona la cámara como la resolución real en relación a las posibilidades de mostrar detalle del papel impreso, y del ojo humano de captarla. Entonces, ¿podemos suponer que se detendrá aquí el crecimiento en la resolución nominal de los sensores?



8. Determinantes de la evolución de los sensores. Una reconsideración de la importancia de la densidad de píxeles y el tamaño del sensor.

En esta sección veremos por qué el tamaño de los sensores y sus resoluciones tienden inexorablemente a unos valores de equilibrio. Antes de seguir, conviene leer con detenimiento el documento de Karl Lenhardt y Bad Kreuznach, de Schneider-Kreuznach, y el artículo de Erich Heynacher y Fritz Köber, ingenieros de Carl Zeiss que se citan al final.

La impresión subjetiva de calidad en una fotografía impresa depende del nivel de contraste que objetivo y sensor (y otros elementos de la cadena) proporcionen a la resolución de cada impresión concreta (->). Recordemos que para una impresión A4 a 6 pares por milímetro, necesitaremos 2520x3564 píxeles. Eso supone 50 pares por milímetro en un sensor de 24x36mm, 75 pares por milímetro en un sensor 15,6x23,7mm (APS-C), 95 pares en un sensor 13,5x18mm (4/3), y 35 pares en un sensor 37x49mm (formato medio, en muchos respaldos actuales). Recordemos el gráfico con las dos MTF que utilizamos para discutir el tema de la calidad de imagen. En el gráfico que sigue hemos representado las tres resoluciones exigidas al sensor por la impresión A4 a 6 pares. Puede observarse fácilmente cómo el nivel de contraste que proporciona un objetivo ideal es mayor a 35 pares para cualquier abertura, y progresivamente menor conforme pasamos a 50 y 75 pares por milímetro. Es obvio que la cámara de formato medio proporcionará una imagen impresa de más calidad, lo que se verifica también para el medio químico.

print.gif
Curvas MTF, y requerimientos de impresión para distintos tamaños de sensor.

Si en vez de los 6 pares por milímetro consideramos el rango de 0,5 a 2 pares (que determina la percepción subjetiva de calidad), el esfuerzo resolutivo exigido al sensor de 35mm estará comprendido entre 4 y 16 pares, el sensor 4/3 tendrá que resolver entre 8 y 33 pares, mientras que para el sensor APS-C serán entre 7,5 y 26 pares aproximadamente y para el sensor de 37x49mm entre 3 y 12 pares por milímetro. El contraste a esas resoluciones proporcionado por objetivo y sensor debe ser el máximo posible, y cuanto menor sea la exigencia que la impresión impone al sensor mayor será el contraste (basta observar una curva MTF).

Hay que añadir una consideración más al análisis, muy importante. Acabamos de ver que el nivel de contraste debe ser lo más alto posible hasta la resolución que la impresión exige al sensor, pero el contraste de la señal debe ser lo más pequeño posible más allá de la capacidad resolutiva del sensor (límite Nyquist) para evitar el aliasing y sus consecuencias.

Ambas condiciones combinadas recomiendan que el límite Nyquist sea lo mayor posible respecto a la resolución máxima "necesaria" para obtener una copia impresa.

nyquist.gif
Curvas MTF, requerimiento de impresión y límite Nyquist.

En este otro gráfico, la línea amarilla representa ahora los 50 pares por milímetro que la impresión que venimos considerando exige a un sensor de 24x36mm, mientras que la roja es un límite Nyquist hipotético de 75 pares, que supondrían 21 megapíxeles. La línea amarilla representa el esfuerzo exigido por la impresión al sensor, y dependerá del tamaño de éste. La línea roja debe alejarse lo más posible de la línea amarilla para que el exceso de señal (lo que queda por encima del límite Nyquist) no perturbe la señal reproducida en la impresión (lo que llega hasta la línea amarilla).

Mientras que una abertura de f/5.6 proporciona más contraste en la imagen impresa (área bajo la curva MTF de color azul y a la izquierda de la línea amarilla), también puede generar un mayor exceso de señal (área bajo la curva MTF azul y a la derecha de la línea roja).

Sólo desplazando la línea roja más a la derecha o la amarilla más a la izquierda podremos minimizar las consecuencias adversas del exceso de señal.

Cuanto más pequeño es el sensor mayor debe ser su densidad para satisfacer los requerimientos de la impresión (más a la derecha estará la línea amarilla), lo que hace difícil alejar el límite Nyquist de la frecuencia de impresión (la línea roja tendría que alejarse mucho más hacia la derecha).

Un sensor APS-C tiene que resolver al menos 75 pares para un A4 a 300 píxeles por pulgada, por lo que el límite Nyquist debe ser aún más elevado. Por tanto, la ventaja de los sensores más grandes es que tienen que hacer un menor esfuerzo para una impresión dada (línea amarilla más a la izquierda), por lo que a igual límite Nyquist (línea roja) la diferencia será mayor y las distorsiones provocadas por el exceso de señal serán menores. Además, como hemos visto, el contraste proporcionado por el objetivo a resoluciones menores es mucho mayor, por lo que una línea amarilla situada más a la izquierda significará mayor calidad en la imagen impresa.

Hay quien piensa que en la fotografía digital sólo cuenta el número de píxeles, y que el tamaño del sensor sólo tiene importancia en lo referente al tamaño de los fotocaptadores, pero no es así como vemos.

En resumen, cuanto mayor el sensor, mejor, pues más a la izquierda estará la línea amarilla. Además, cuanto mayor sea la densidad también mejor, pues más a la derecha estará la línea roja.

Dado que el círculo de luz de los objetivos impone una restricción al tamaño máximo del sensor, y la tecnología del momento establece un límite a la densidad (dada una determinada razón señal-ruido), es fácil calcular hacia dónde evolucionarán los sensores.

Debe tenerse en cuenta que para duplicar la capacidad resolutiva o límite Nyquist de un sensor hay que cuadruplicar el número de píxeles. Por tanto, si con mucho esfuerzo duplicamos el número de píxeles, estaremos elevando el límite Nyquist sólo un 50%, y el incremento en resolución efectiva puede ser incluso menor. Tendemos a caer en el error de pensar que un número doblemente grande de píxeles significa una ganancia doble en algún sentido. Por tanto, hay que tener cuidado cuando uno compara el número total de píxeles de dos cámaras: 16 megapíxeles supone un incremento de sólo el 15% de capacidad resolutiva teórica respecto a 12 megapíxeles, si el sensor tiene el mismo tamaño. Sería el caso de la Canon 1Ds Mark II y la Canon 5D.

2.jpg
Tamaños relativos de los sensores más comunes. Faltan los formatos medios y grandes, como el popular 645 (en verdad 42x56mm). Pulsar para ampliar.

Lo anterior vale para sensores de igual tamaño, pero consideremos ahora sensores de distintos tamaños. El mayor tamaño por sí mismo afecta positivamente a la calidad de imagen, de manera que un número de píxeles ligeramente superior en un sensor de tamaño sensiblemente mayor puede representar una calidad de imagen apreciablemente superior.

Además, los sensores APS tienen aproximadamente la mitad de superficie que los sensores de formato completo, por lo que, a igual densidad, el número total de píxeles debe ser el doble. Dicho de otra forma, doble número de píxeles en un sensor de doble superficie no altera el límite Nyquist.

Lo que ha venido ocurriendo hasta ahora en las cámaras réflex, como tendencia, es precisamente que la densidad tiende a ser la misma entre sensores de distintos tamaños, y que la diferencia en número de píxeles responde, más o menos, a diferencias de tamaños de los sensores.

Si llevamos la densidad actual en sensores APS a los de formato completo, tendremos una estimación del número total de píxeles que podemos esperar ver en un futuro cercano. La densidad de la Canon 20D o 30D supondría 21 millones de píxeles en un sensor sin recortes (24x36mm), mientras que la densidad de la Nikon D2X daría ¡28,5 megapíxeles! (864 milímetros cuadrados de superficie de un fotograma de 35mm dividido por los 0,00003025 milímetros cuadrados de cada área fotocaptadora de esa cámara). Obsérvese que en un sensor de formato completo las dos densidades mencionadas permitirían una diferencia entre frecuencia de impresión (A4, 6 pares) y límite Nyquist de 80-50=30 pares y 90-50=40 pares respectivamente. Sin embargo, en un sensor de formato (aproximado) APS-C las dos densidades permiten diferencias de sólo 80-75=5 pares y 90-75=15 pares respectivamente, lo que aumenta el riesgo de aliasing.

Pero estos cálculos no suponen otra cosa que aplicar densidades ya existentes en sensores actuales a otros más grandes. El avance tecnológico no se detiene y podremos ir más allá. Las características de los objetivos heredados de la fotografía química lo aconsejan. En efecto, si llevamos el límite Nyquist a 100 pares por milímetro, estaremos hablando de píxeles de 5 micras de lado. En un sensor de 24x36mm tendríamos 35 megapíxeles, en las variantes APS unos 17 megapíxeles y en un sensor de formato 4/3 casi alcanzaríamos los 10 megapíxeles.

Un sensor 4/3 con 10 megapíxeles representaría un incremento del límite Nyquist de un 12% aproximadamente si lo comparamos con un sensor del mismo tamaño con 8 megapíxeles (el de la Olympus E-300 y E-500). Un sensor APS de casi 17 megapíxeles supone un incremento del límite Nyquist del 20% a lo sumo respecto al mismo sensor con 12 megapíxeles (el de la Nikon D2X). En cambio, un sensor de formato completo con 35 megapíxeles representa un incremento del límite Nyquist de un 75% con respecto al de un sensor de igual superficie con 12 megapíxeles y más de un 50% respecto de uno con 16 megapíxeles (Canon 5D y Canon 1Ds Mark II respectivamente).

Incrementos adicionales en la densidad de píxeles pueden resultar imposibles a partir de cierto punto sin serios sacrificios en la calidad de imagen debido al ruido fotónico ('photon noise'). Cuanto mayor es la densidad, más pequeña es el área de captura, e inevitablemente la razón señal-ruido decrece. Se pueden reducir otras causas del ruido, o aplicar tratamientos a la imagen, pero obviamente hay límites. No podemos escapar a las leyes de la Física.


El formato medio permite trabajar con sensores aún mayores. La ventaja del formato medio en la fotografía de película era que requería una ampliación menor para conseguir un tamaño de impresión dado, pues las ampliaciones siempre degradaban la imagen. Los objetivos 6x6 para las cámaras de formato medio están diseñados para dar un buen rendimiento (contraste, entre otras cosas) a frecuencias espaciales menores que los objetivos de 35mm, dada la mayor superficie del fotograma y las menores ampliaciones requeridas para las impresiones (véase esta página de resoluciones de objetivos de formato medio).

Ronald W. Harris (en las referencias citamos su análisis en dos partes), estudiando el caso de la película, encuentra que 13 pares por milímetro es lo máximo que reproduce determinada clase de papel (Oriental Seagull Glossy), y 4 pares lo más que se puede captar a simple vista. Apartir de ahí hace sus cálculos, que le llevan a unos requerimientos de 30 pares para el negativo de 35mm y 15 pares para el negativo 6x6 (impresión de 8x10 pulgadas a 4 pares ), y 95 pares/45 pares respectivamente (impresión a 13 pares). Cualquiera puede hacer sus propios cálculos en función de otros parámetros.

Esto no cambia en el medio digital. Hemos visto que a mayor superficie del sensor, menor requerimiento de resolución para una impresión dada. Para una impresión A4 a 300 píxeles por pulgada (6 pares por milímetro), el sensor de 35mm tiene que resolver unos 50 pares, y el sensor 37x49mm unos 35 pares. Pero si la impresión A4 debe alcanzar los 13 pares por milímetro de los que hablaba Harris, será necesaria una imagen de 5460x7722 píxeles, es decir, ¡de unos 42 millones de píxeles! Un sensor de formato 35mm tendría que aportar hasta 110 pares por milímetro, mientras que el esfuerzo de un sensor de 37x49mm (más pequeño que el 6x6) se limitaría a unos 75 pares. Sabemos que el soporte químico en formato de 35mm difícilmente puede satisfacer esas exigencias. Téngase en cuenta que nuestros números difieren ligeramente de los de Harris por el tamaño del papel que hemos supuesto (un A4 son exactamente 8,3x11,7 pulgadas) y por el recorte en el sensor de formato medio.

El nuevo respaldo digital P45 de Phase One (->), con un sensor de 37x49mm (algo inferior a los 42x56mm del formato 645), tiene nada menos que 39 millones de píxeles (de 6,8 micras de lado), lo que alcanza las exigencias de las impresiones más exigentes y agota la capacidad resolutiva de las mejores objetivos para cámaras de formato medio. En efecto, la frecuencia de muestreo o límite Nyquist es de 73,5 pares por milímetro, más del doble de los 35 pares que tiene que resolver el sensor para un A4 a 6 pares (300 píxeles por pulgada), y muy cerca de los 75 pares que requiere una impresión a 13 pares por milímetro (cuyo detalle no se puede captar a simple vista). En comparación, 22 megapíxeles en el mismo sensor suponen un límite Nyquist de 55 pares por milímetro (píxeles de 9 micras) y 18 megaíxeles uno de 50 pares (píxeles de 10 micras de lado). Con fotocaptadores de 6,8 micras de lado, en un sensor de formato 645 sin recortes (es decir, 42x56mm) tendríamos 51 millones de píxeles. Es obvio que los nuevos respaldos han situado el límite Nyquist a un nivel tal que poco exceso de señal perturbador (a la derecha de la línea roja) puede quedar, y se satisfacen además las necesidades de las impresiones más exigentes.

En cambio, los formatos basados en círculos de luz más pequeños tienen que afrontar más problemas para conseguir un límite Nyquist tan alto en términos relativos, y cuanto más pequeño el sensor, peor. El tamaño sí importa, y mucho.



9. Consideraciones adicionales sobre las diferencias entre formatos.

Olympus ha propuesto un nuevo formato, llamado Cuatro Tercios (->), relativamente pequeño pero competitivo, basado en objetivos con unas prestaciones inusuales (los gráficos MTF de los objetivos Zuiko digitales son elocuentes) con un excelente diseño (de tipo telecéntrico, ->) y construcción. El sistema está basado también en una montura de gran diámetro y distancia respecto al sensor, en proporción a la diagonal de éste. Todo ello garantiza una escasa inclinación de los rayos de luz cuando alcanzan el sensor. Es exactamente la misma idea que lleva a Nikon a defender un formato reducido para sus réflex digitales. Por otro lado, los sensores de 8 megapíxeles de las cámaras Olympus tienen el límite Nyquist más elevado conocido en cámaras réflex (algo más de 90 pares por milímetro). El concepto de Olympus hace posible garantizar un nivel de resolución y contraste igual o superior al de cualquier otra cámara en impresiones de tamaño moderado, gracias a unos excelentes objetivos casi telecéntricos, aunque relativamente grandes y caros.

3_4TypeImageSensors.jpg
Los límites previstos del sistema Cuatro Tercios de Olympus (Kodak©).

Las restricciones en cuanto a número de píxeles admisibles por los sensores y el rendimiento a ISOs altas son las mayores limitaciones del formato. Lo mismo podría decirse de otras cámaras con sensores más pequeños que el fotograma de 35mm equipadas con objetivos diseñados específicamente para ellos. Por tanto, es posible compensar un menor tamaño de sensor con una buena óptica, pero sólo hasta cierto punto, dependiendo de la diferencia de tamaño entre sensores y del tamaño de la impresión (véase esta interesante reflexión de Lars Kjellberg sobre comparación de formatos, y éste análisis de Erwin Puts sobre la importancia relativa de los objetivos en el medio digital).

Por otro lado, supeditar el diseño de un sistema al objetivo de conseguir una escasa inclinación de los haces de luz que inciden en el sensor podría tener sentido al principio de la revolución digital, pero la tecnología ha avanzado y las microlentes permiten incluso el desarrollo de cámaras telemétricas digitales, por no hablar de cámaras con sensores de 24x36mm que ofrecen un rendimiento igual o mejor que la película química en lo que a viñeteo se refiere.

Nos detendremos un poco en este tema de la diferencia entre formatos para tratar de aclarar los argumentos. Observemos el siguiente gráfico, que representa unas funciones MTF clásicas, radiales y tangenciales para cuatro resoluciones básicas (10, 20, 30 y 40 pares por milímetro), con el nivel de contraste en el eje de ordenadas (vertical) y la distancia respecto al centro del círculo de imagen en el eje de abscisas (horizontal). El objetivo es un Noctilux 50mm f/1 de Leica, que cubre con su círculo de luz un fotograma de paso universal, cuyo radio es de 21,6 milímetros. Puede observarse cómo, incluso para una abertura moderada de f/5,6, el nivel de contraste se deteriora sensiblemente hacia las esquinas. Si empleáramos una película o sensor de tamaño menor ese deterioro se evitaría. Hemos trazado dos líneas verticales, una situada aproximadamente a los 11,3 milímetros, que es el radio del círculo de luz de un objetivo de formato 4/3, y otra a 14,4 milímetros, el radio de un círculo de luz adaptado a un sensor de formato APS-C. Puede observarse cómo el nivel de contraste transmitido por el objetivo en las esquinas de esos sensores es muy superior al nivel de contraste en las esquinas del sensor sin recorte. Es más, si se diseñaran los objetivos específicamente para esos formatos más pequeños el nivel de contraste podría ser incluso superior al mostrado en el gráfico.

El argumento es válido, pero incompleto, pues la otra forma de representación de las funciones MTF, con la resolución en el eje horizontal, nos cuenta la otra mitad de la historia: un formato mayor necesita resolver menos detalle en el sensor (o la película) para alcanzar un determinado nivel de detalle reproducido en la impresión, como hemos explicado ya. Por eso decimos que un formato menor puede compensar su relativa inferioridad mediante un avanzado diseño óptico, pero sólo hasta cierto punto.

MTFvariant.gif
Curvas MTF de una Leica Noctilux 50mm f/1 a una abertura de f/5.6 (Leica Camera AG©).


No obstante, los formatos pequeños pueden presumir de una ventaja interesante en teleobjetivos respecto de los formatos mayores, aunque, como todo, es una verdad a medias que hay que matizar.

En efecto, dado que la abertura máxima en relación al diafragma (razón entre la distancia focal y el diámetro de la lente frontal del objetivo) regula no sólo la cantidad de luz que puede acceder al sensor por unidad de tiempo, sino también la profundidad de campo, la ventaja sería esta: para conseguir un mismo ángulo de visión y una misma profundidad de campo, el formato menor requiere una focal menor y una mayor abertura que el formato mayor, y por tanto consigue la profundidad de campo con un tiempo de exposición menor (o con un ISO menor). Eso siempre que sea posible proporcionar esas características que garanticen una equivalencia total.

En general, podemos decir que hay que dividir la abertura por el factor de recorte para hallar la abertura equivalente (en términos de profundidad de campo), de la misma forma que se hace con la longitud focal equivalente (en términos de ángulo de visión).

Por tanto, una abertura f/2 en un objetivo para el formato 4/3 de Olympus equivale en términos de profundidad de campo a una abertura f/4 en un objetivo de 35mm sobre un sensor de ese formato sin recorte. Para conseguir el control sobre la profundidad de campo que da una abertura f/2 en el formato de 35mm, un objetivo 4/3 necesitaría una abertura f/1. Cerrando el diafragma (de f/8 en adelante), la profundidad de campo en casi todos los formatos será la misma, y ya no habrá diferencias. Por tanto, la única ventaja de los formatos menores, en cuanto a profundidad de campo, es que si necesitas más, el formato menor te la puede brindar con una abertura mayor, lo que implica mayor recolección de luz por unidad de tiempo.

La regla es igualmente válida para objetivos estándar, teles o angulares, pero resultará difícil proporcionar objetivos angulares equivalentes para un formato menor (un 28mm f/2 en formato de 35mm equivaldría, en cuanto a ángulo de visión y profundidad de campo, a un 14mm f/1 en formato 4/3; pero también un 200mm f/2,8 en paso universal equivaldría a 100mm f/1,4 en 4/3). Por tanto, no es posible que distintos formatos ofrezcan la misma capacidad de control sobre todos los parámetros básicos de la imagen fotográfica.

Debe tenerse en cuenta que en ningún momento nos hemos referido a objetivos diseñados para un formato mayor utilizados sobre un sensor de formato menor, sino a objetivos diseñados específicamente para cada formato. Si usamos un objetivo diseñado para paso universal (35mm) en una cámara con un sensor menor, el ángulo de visión se verá alterado debido al factor de recorte (la razón entre las diagonales de los sensores), pero la profundidad de campo no, pues es función de la abertura, la longitud focal real y la distancia que media entre cámara y motivo.

Para resumir, diremos que hay tres parámetros básicos en la comparación de dos formatos: ángulo de visión, determinado por la focal real relativa a la diagonal del sensor; luminosidad, determinada por la abertura máxima; y profundidad de campo, que depende de abertura, distancia al motivo y focal. Es obvio que no puede haber dos objetivos totalmente equivalentes diseñados para formatos distintos (con círculos de luz diferentes). Si ofrecen el (los) mismo(s) ángulo(s) de visión y tienen la misma luminosidad, no podrán ofrecer el mismo control sobre la profundidad de campo; y si la produndidad de campo mínima es igual, entonces el objetivo del formato menor tendrá que ser más luminoso. Esta imposibilidad de una equivalencia total da lugar a diferencias entre los formatos: el más pequeño tendrá una profundidad de campo mínima mayor, pero podrá ofrecer una profundidad de campo dada con una abertura mayor, es decir, dejando pasar más luz al sensor; por otro lado, el formato menor puede reducir la longitud focal efectiva asociada a un determinado ángulo de visión, lo que es una ventaja en los teleobjetivos y un inconveniente en los grandes angulares.



10. Conclusiones.

La Nikon D2X, con fotocaptadores de 5,5 micras de lado, y los respaldos digitales con fotocaptadores de 6,8 micras, confirman las predicciones de un documento Kodak muy esclarecedor. Se conocía perfectamente desde hace mucho la evolución que iba a experimentar la tecnología digital, al menos en esta primera fase de ajuste y sustitución del paradigma anterior basado en soporte químico.

ultimateSensor.jpg
Previsiones de la evolución de las resoluciones en sensores digitales (Kodak©).

Decíamos que una cámara de 35mm podía resolver en el negativo, bajo condiciones muy controladas, con película de alta resolución, unos 100 pares por milímetro, aunque lo más que podemos esperar obtener razonablemente son 80-90 pares o incluso mucho menos en condiciones normales. Ese negativo tiene que ampliarse (o escanearse) para que podamos obtener una copia en papel de la fotografía, lo que supone una pérdida de resolución o detalle y contraste. Esa pérdida de transmisión no se da con la tecnología digital. Los sensores digitales, por tanto, permiten ofrecer idealmente más calidad en la imagen impresa resolviendo menos detalle, y especialmente si comparamos con películas de mayor sensibilidad y menor resolución. Por tanto, no es necesario obtener una resolución real de 100 pares por milímetro en un sensor de 35mm ni siquiera para igualar la calidad de la foto impresa proporcionada por la película de alta resolución, lo que explica que sensores más pequeños con alta densidad o sensores de 35mm con densidad más baja ya proporcionen imágenes impresas que superan en calidad a las obtenidas a partir de emulsiones de alta resolución.

A pesar de esos resultados ya superiores, podemos esperar mejoras adicionales en la calidad de las fotografías tomadas digitalmente. La calidad de la imagen final proporcionada por un sensor depende de su tamaño y de su límite Nyquist (densidad). Éste es siempre superior a la resolución real obtenida debido a los efectos degradantes del aliasing (teorema Nyquist-Shannon). Sabemos que los objetivos actuales pueden requerir todavía sensores de mayor densidad (es falso que existan sensores que sobrepasen la capacidad resolutiva de los mejores objetivos de 35mm).

Por tanto, la evolución reciente de la tecnología fotográfica se explica por los condicionantes de la calidad de la fotografía impresa, pero en un sentido más complejo del que muchos entienden. El tamaño de la impresión, con un detalle al límite de lo que el ser humano puede distinguir a simple vista, determina una exigencia de resolución para el objetivo y el sensor. Esa resolución se sirve con un mayor nivel de contraste cuanto mayor sea el tamaño del sensor. Además, las degradaciones causadas por el aliasing serán más leves cuanto mayor sea la resolución o densidad que nos conducirá a los sensores más grandes que nos permitan los objetivos y con la mayor resolución posible, hasta lo que la razón señal-ruido haga recomendable. También sería posible rediseñar los objetivos para proporcionar mayores niveles de contraste a resoluciones inferiores al límite Nyquist y mucho menores a resoluciones superiores a dicho límite, como algunos fabricantes están haciendo con los objetivos que no tienen que mantener una compatibilidad con el soporte químico.

El rápido crecimiento observado en la resolución de las cámaras digitales y la preferencia por formatos que aprovechen todo el círculo de luz de los objetivos tiene una explicación técnica, y no es en modo alguno producto del marketing o del capricho.



11. Referencias fundamentales.

Son absolutamente recomendables tres referencias básicas para entender el tema de la resolución y la calidad de imagen en general, reforzando el razonamiento que hemos presentado en este mismo artículo: el contraste es tan importante como la resolución para la calidad de una imagen; a menores resoluciones los objetivos proporcionan mayor nivel de contraste, y los sensores más grandes tienen que hacer menores esfuerzos resolutivos para cualquier tipo de impresión; y por último, la capacidad resolutiva de un sensor (frecuencia de muestreo o límite Nyquist) debe ser lo más alta posible, para de esa forma eliminar los efectos degradantes del aliasing.

  • Primero, un famoso artículo de Erich Heynacher y Fritz Köber, ingenieros de Carl Zeiss, que trata de forma muy accesible la importancia del contraste en la percepción de la calidad de una fotografía.

  • En segundo lugar debería consultarse el análisis de Bob Atkins sobre la importancia del tamaño del sensor, por su relación con el nivel de contraste de la imagen impresa (otro tema es el de la calidad relativa de la imagen en los bordes del fotograma, que también hay que considerar). Erwin Puts ha publicado sus reflexiones sobre el tema, coincidentes con las apreciaciones de Atkins.

  • En tercer lugar, un importante documento de Karl Lenhardt y Bad Kreuznach, de la firma Schneider-Kreuznach, que añade consideraciones sobre el aliasing, en relación con el número de píxeles requeridos para la impresión y el límite Nyquist.

La conclusión principal es que a mayor superficie de captación, mayor calidad de imagen, por dos motivos: primero, menor ampliación necesaria para una impresión, pero esto no afecta al medio digital excepto si hay que interpolar; segundo, mayor contraste, dada la función decreciente MTF. Además, a mayor densidad de píxeles (frecuencia de muestreo) mayor calidad de imagen, pues menores son los problemas derivados del aliasing y la interpolación Bayer. Por otro lado, con 9 millones de píxeles es suficiente para obtener impresiones de tamaño A4 a 300 píxeles por pulgada, y con 18 millones para obtenerlas en un A3. Esos son los límites mínimos a partir de los cuales evolucionarán los sensores de próxima generación buscando más calidad de imagen.


Hay referencias adicionales muy instructivas, y que no deberían dejar de estudiarse para conseguir una buena comprensión de los temas tratados, aunque son técnicamente más difíciles.

Los dos artículos de Ronald W. Harris dedicados al tema de la resolución, pero no referidos al medio digital específicamente (1, 2), son fantásticos.

Es recomendable también la serie explicativa dedicada al tema de la resolución por Bob Atkins (1, 2, 3, 4, 5 y 6), a la que habría que añadir dos breves comentarios muy instructivos (1, 2) y un interesante análisis adicional (3). Atkins ha resumido sus planteamientos en un análisis que cierra muy bien sus puntos de vista sobre el tema (1 y 2 con ejemplos en 3a, 3b).

Los cálculos de resolución de Makoto Honda son muy interesantes, junto con sus comentarios, y es recomendable consultar sus artículos (1).

Para acabar, son imprescindibles los estudios, muy técnicos, de Roger N. Clark (1) y Norman Koren (2). Este último aporta interesantes referencias adicionales.

La Tesis doctoral de Charles Dickinson, de 1999, es otra fuente importante, y se puede acceder a ella libremente (1).

Por último, hay un libro, difícil de encontrar, que es una absoluta referencia sobre estos temas. Se trata de "Image Clarity: High-Resolution Photography", de John B. Williams, Focal Press, 1990.

Todas estas fuentes han sido citadas ya en el texto.


Tags:
View blog reactions

 
< Anterior   Siguiente >

Colabora con Macuarium

  • Compra en nuestra apple store

    Apple Store

    Comprando desde nuestra Apple Store particular ayudas a mantener Macuarium.
    Ir a la tienda...
  • tarjeta macuarium

    Tarjeta Macuarium

    El principal medio que existe para colaborar en el mantenimiento de Macuarium.com
    Consiguela Ahora...
  • Vistete con macu

    Camisetas Macuarium

    Vistete a la moda, con nuestra selección de ropa y complementos de macuarium.
    Ir al probador...

Apadrina un servidor

Cantidad:
$