Tamaño del sensor vs calidad de imagen

¿Qué relación hay entre el tamaño del sensor y la calidad de imagen final? ¿Sólo se pueden conseguir imágenes de calidad con sensores grandes?

 

Calidad de imagen vs tamaño del sensor

 

¿A qué nos referimos con calidad de imagen?

Hablamos sólo de calidad ‘técnica’ de la imagen, no de la calidad artística de una foto o vídeo, que no tendría nada que ver.

En general la calidad de imagen está relacionada con la fidelidad de la imagen con respecto a la escena real.

Una imagen ‘perfecta’ recogería todos los detalles de la escena tal cual los vería una persona que estuviera allí.

Ya de partida esto es imposible porque la visión humana no funciona como una cámara de fotos, funciona más bien como una cámara de vídeo, y además el cerebro hace su propia edición y se queda con lo que más le interesa en ese momento.

Pero al margen de eso las propias cámaras tienen sus limitaciones físicas y tecnológicas.

La calidad de imagen de una cámara se la suele relacionar con estos parámetros:

  • Resolución y nitidez
    Que nos permite apreciar en la imagen detalles y texturas.
  • Color
    Capacidad para reproducir los colores de tal forma que sean muy cercanos a la realidad o que tengan una apariencia natural, coherente.
  • Ausencia de artefactos
    Los artefactos en un imagen son elementos que no existen en la escena real: ruido digital (granulado), bandas de color, aliasing (Moiré)…

 

 

Calidad de imagen en sensores digitales

En los sensores modernos la resolución y la capacidad para captar el color no suelen suponer una limitación.

La principal limitación en los sensores suele ser el ruido.

Si tomamos como referencia la escena real, la representación en una imagen ideal la llamaremos información. Y cuando estamos procesando esa información la llamamos señal.

Cualquier cosa que altere o modifique esa información perfecta la llamamos ruido.

Nunca podemos conseguir una imagen perfecta, sólo información, porque la propia naturaleza de la luz tiene una componente aleatoria.

Los fotones de luz que llegan a una determinada superficie no lo hacen siguiendo un flujo constante, sino que lo hacen de una forma aleatoria que sigue una distribución estadística de Poisson.

Esto se traduce en que si tenemos una cantidad de luz homogénea que llega a todo el sensor, cada una de sus celdas va a recibir una cantidad diferente de fotones.

En conjunto, todas habrán recibido una cantidad media, pero sobre esa media habrá celdas que reciban algunos fotones en exceso y otras que reciban menos fotones.

Esa fluctuación es ruido, ya que perturba la información inicial que había en la escena.

Además, todos los procesos electrónicos que se llevan a cabo en el propio sensor añaden ruido adicional (ruido térmico) y el proceso en el que la señal analógica, voltajes, se convierte en digital, números enteros, también introduce más ruido.

En cualquier imagen habrá una proporción de señal y una proporción de ruido. Y están mezclados de tal forma que no podemos recuperar la información original perfecta.

A la proporción entre la señal y el ruido se la llama relación señal a ruido (SNR en inglés) y lo que intentaremos siempre es conseguir una relación señal a ruido lo más grande posible.

Por suerte, el ojo humano tiene también sus limitaciones físicas: a partir de una cierta SNR no somos capaces de apreciar diferencias en la imagen.

Y también hay que tener en cuenta que la visión humana (el cerebro) es muy flexible, tiene una gran capacidad de abstracción y la calidad de imagen en última instancia es una característica subjetiva, depende de cada persona.

Se suele considerar que imágenes con una SNR a partir de 30dB (decibelios – es una forma de medir relaciones entre cantidades) es excelente para la mayoría de las personas.

En otros casos se toma una SNR de 50dB como referencia para una imagen ‘perfecta’.

 

Luz y relación señal a ruido

Hemos visto que la luz tiene un comportamiento estadístico y que la luz que nos llega a los ojos o la que llega al sensor incluye su propio ruido.

Una característica importante de ese comportamiento es que la variabilidad (ruido) decrece proporcionalmente con la cantidad de luz.

Cuando hay poca luz tenemos una gran variabilidad relativa (varianza). La relación señal a ruido es mala. Esto lo podemos ver con nuestros propios ojos en una habitación totalmente oscura en la que pongamos una fuente de luz débil. Cuando intentamos identificar los objetos tendremos poca percepción del detalle y del color (por el tipo de células que se activan en el ojo) y además percibiremos un granulado que se superpone sobre la escena.

Cuando hay mucha luz también aumenta la variabilidad pero no de forma proporcional (la variabilidad crece con la raíz cuadrada de la cantidad de luz).

Es decir, más luz implica una mayor relación señal a ruido y por tanto una imagen de mayor calidad.

Variabilidad / ruido de la luz (Poisson)

En el sensor las otras fuentes de ruido: ruido térmico, ruido de la conversión de analógico a digital, etc. suelen estar acotadas a un cierto valor más o menos fijo que depende de cada modelo.

Se aplica por tanto el mismo criterio: cuanto mayor sea la cantidad de luz, mayor será la relación señal a ruido final de la imagen.

La evolución tecnológica de los sensores afecta a los niveles de ruido electrónico.

Cada nueva generación de sensores consigue bajar un poco la cota de de ruido electrónico (térmico, etc.) y optimizar todo el procesamiento de la señal analógica.

Por otro lado, como la cantidad de luz afecta a la relación señal a ruido, la superficie total de captación tiene su importancia en lo que respecta a la calidad de la imagen.

 

Tamaño del sensor vs calidad de imagen

Vamos a hacer un resumen de lo que hemos ido comentando:

  • Una imagen siempre es una mezcla de señal (información de la escena) y ruido
  • La luz incluye su propio ruido en forma de fluctuaciones (Poisson)
  • La electrónica del sensor introduce ruido adicional (térmico, etc.)
  • Cuanta más luz (cantidad total que llega al sensor) mayor es la relación señal a ruido
  • La visión humana no es capaz de distinguir el ruido en imágenes con SNR > 30dB (o 50dB dependiendo del criterio)

 

Supongamos una escena con mucha luz, una iluminación normal que podemos tener por ejemplo durante un día soleado.

Hacemos una foto de la escena con diferentes cámaras: un móvil, una compacta con sensor de 1 pulgada, una cámara Micro 4/3, una cámara con sensor APS-C y una cámara con sensor Full Frame.

Intentamos conseguir la misma exposición para todas las fotos, para comparar.

Vamos a suponer que podemos medir de alguna forma la relación señal a ruido de cada imagen y que obtenemos estos valores (totalmente inventados, pero más o menos dan una idea de la diferencia entre sensores):

Cámara móvil: 40dB
Cámara sensor 1″: 52dB
Cámara sensor M4/3: 60dB
Cámara sensor APS-C: 65dB
Cámara sensor Full Frame: 75dB

 

Todas esas imágenes superan los criterios de calidad que puede detectar la visión humana, vamos a suponer que es 30dB, por lo tanto todas ellas serán excelentes y no podremos distinguir diferencias.

Si lo quieres ver de otra forma: en esas condiciones de luz los sensores más grandes están desperdiciando todo su potencial.

 

Vamos a suponer ahora que baja la luz de la escena y mantenemos todos los parámetros de exposición.

Obtendremos imágenes más oscuras lógicamente. Y como hay menos cantidad de luz, la relación señal a ruido será menor en todos los casos, por ejemplo:

Cámara móvil: 17dB
Cámara sensor 1″: 25dB
Cámara sensor M4/3: 35dB
Cámara sensor APS-C: 40dB
Cámara sensor Full Frame: 50dB

 

Para esas nuevas condiciones de luz sí somos capaces de ver diferencias entre las imágenes.

Los sensores con tamaños intermedios todavía estarían por encima del criterio de 30dB y se podrían considerar imágenes de excelente calidad.

La imagen del sensor de 1 pulgada tendría una calidad bastante buena y apenas apreciaríamos algo de granulado.

La imagen de la cámara del móvil sí está por debajo de ese criterio y notaríamos bastante granulado, ruido digital, que afectaría a la nitidez y a la reproducción de los colores.

 

Otra forma de verlo.

Vamos a suponer que en lugar de mantener los parámetros de exposición de las cámaras aumentamos el valor de ISO para compensar la falta de luz. Nos quedarán imágenes muy similares a las que obtuvimos antes, con la diferencia de que al subir ISO hacemos más perceptible el ruido (granulado).

En esas condiciones, las imágenes de los sensores Micro 4/3 y APS-C se verían prácticamente igual que la imagen del móvil de la situación anterior con más luz (aprox. 40dB en el ejemplo)

Es decir, un sensor más grande no implica una imagen con una calidad perceptible mayor.

Un sensor más grande ofrece un margen mayor, un rango de condiciones más amplio, en el que puede ofrecer imágenes que perceptiblemente tienen una buena calidad.

En esta gráfica lo podemos representar de una forma más visual:

 

Calidad de imagen vs tamaño del sensor

Las barras asociadas a cada tipo de sensor representan el margen para el que pueden mantener una cierta relación señal a ruido, por ejemplo 30dB

La escena 1 representa una situación con mucha luz en la que todos los sensores ofrecen imágenes de excelente calidad.

En la escena 2 los sensores M4/3,  APS-C y Full Frame siguen ofreciendo imágenes que se considerarían de calidad excelente.

En la escena 3 las condiciones de luz son peores y sólo el sensor Full Frame puede ofrecer imágenes con una buena relación señal a ruido (calidad excelente)

A medida que sigamos empeorando las condiciones de luz el sensor Full Frame tampoco será capaz de mantener una calidad excelente y el ruido digital comenzará a ser también apreciable en forma de granulado.

Y si lo vemos de otra forma, el sensor Full Frame podrá subir ISO hasta un nivel mucho más alto manteniendo una calidad de imagen excelente.

 

Resumen / conclusión

Hay muchos factores que influyen en la percepción del ruido en una imagen.

La tecnología del sensor es un factor importante: sensores más modernos suelen tener un mejor comportamiento al reducir los niveles de ruido electrónico.

El tamaño del sensor es otro factor importante ya que a mayor superficie más cantidad total de luz, y más cantidad de luz implica una mejor relación señal a ruido.

La visión humana sólo es capaz de distinguir o apreciar un determinado nivel de ruido.

Por encima de una determinada relación señal a ruido (p.e. 30dB) todas las imágenes se pueden considerar excelentes.

La diferencia de calidad entre sensores de diferente tamaño sólo la podemos apreciar cuando las condiciones de luz van empeorando.

Cada sensor tiene un rango de trabajo (condiciones de luz) para el cual sigue ofreciendo una buena calidad de imagen.

Sensores más grandes suelen tener un rango más amplio, pueden trabajar en condiciones de luz peores manteniendo la calidad de imagen percibida.

 

 

Más información:

¿En qué influye el tamaño del sensor?

Tamaños de sensor más utilizados en cámaras y móviles

Cómo funciona un sensor de imagen digital

Tipos de cámaras: desde móviles hasta gama profesional