vendredi 27 décembre 2024

Matriçage des capteurs

La caméra de l’Origin utilise le capteur CMOS IMX178LGJ de Sony qui donne, au final, des photos couleur de 3056 x 2048 pixels ce qui représente 3056 x 2048 triplets (R,V,B). Chaque valeur du triplet étant un nombre entier sur 8 ou 16 bits, suivant le format de l'image (jpeg, png, tiff). 

Mais ce n’est pas ça qui est fournit par le capteur. Loin de là !

Le silicium  qui constitue chaque photo-site n’est pas sensible à une couleur particulière. Il est sensible à tout aux fréquences du spectre visible qui va de 380nm à 750nm, ce qui inclus le bleu (449-466 nm) le vert (541-573 nm) et le rouge (605-622 nm). En dehors de cette zone le capteur est sensible aux ultra-violets et surtout aux infra-rouges, mais dans une moindre mesure.

Quand, suite a une exposition d'une seconde, un photo-site produit, par exemple, 234 électrons on ne sait pas quelle était la longueur d’onde des photons qui on produit par effet photo-électrique ces 234 électrons. On dit parfois que le capteur est mono-chromatique ou monochrome mais c’est faux. Cela laisse pensé que le capteur est sensible à UNE seule couleur alors qu’il est sensible à toutes les couleurs du spectre visible. Cet abus de langage vient du fait, qu’en absence d’information colorée, on représente cette information sous forme d’images monochromes. Mais c’est la représentation qui est monochrome, pas le capteur. Panchromatique serait un terme plus juste pour représenter la sensibilité du capteur à toutes les couleurs.

Pour obtenir une information sur la longueur d’onde des photons frappant un photo-site le fabriquant met un filtre coloré devant chaque photo-site. Un photo-site ne reçoit alors que des photons d’une longueur d’onde (d’une couleur) appartenant a un intervalle de fréquences limité. On peut alors dire que nos 234 électrons sont, par exemple, dues à des photons ‘rouges’.

Cet ensemble de filtres recouvrant la surface du capteur est appeler matrice ou CFA (Color Filter Array). Quand les filtres ne sont pas conçus pour la vision humaine on parle de MSFA (Multispectral Filter Array). Dans ce cas le type de filtres n’est pas limité à trois.

Ayant compris cela on se dit que si l’image finale est constituée de 3056 x 2048 triplets (R,V,B) c’est que le capteur de la caméra est constitué de 3056 x 2048 x 3 photo-sites ;  1/3 avec un filtre rouge, 1/3 avec un filtre vert et 1/3 avec un filtre bleu. Eh bien NON ! En fait il n’y a que  3056 x 2048 photo-sites avec, en général, 1/4 avec un filtre rouge, 2/4 un filtre vert et 1/4 un filtre bleu !!

Pourquoi deux fois plus de photo-sites dédiés au vert que ceux dédiés au rouge ou au bleu ?

La raison est ‘physiologique’. Comme la camera doit permettre un rendu le plus proche possible de la vision humaine et que l’œil humain est plus sensible dans la zone du vert que dans le rouge et le bleu on double les filtres verts (bien que la sensibilité de l’œil humain au vert ne soit pas deux fois supérieure au rouge et au bleu)

Comment sont répartis les filtres ?

Il y a deux paramètres qui distinguent les différents types de matrices :
  1. La couleur des filtres : En général les filtres sont (R,V,B) mais certaines matrices utilisent les couleurs complémentaires (Cyan, Magenta, Jaune), d’autres utilisent (R,V,B,E) ou E est la couleur ‘Émeraude’ d’autres encore utilisent (R,V,B,P) où le P (pour Panchromatique) représente l’absence de filtre.

  2. La répartition des filtres : Là aussi il existe de nombreuses méthodes. Mais la plus utilisée est celle proposée en 1976 par Bryce Bayer, alors ingénieur chez Kodak.

Dé-matricage

Comme on le voit, quelles que soient les combinaisons, on est loin de la photo finale avec un triplet (R,V,B) par pixel. Il va falloir dé-matricer, ou dé-Bayeriser, le flot de données venant du capteur (et que l’on peut retrouver dans les fichiers au format FITS).

Pour chaque photo-site il va falloir calculer le niveaux des deux couleurs manquantes. Pour cela on va se baser sur l’environnement plus ou moins immédiat du photo-site. Par exemple on va compléter la valeur réelle d’un photo-site rouge par la moyenne des 4 photo-sites bleus voisins et par la moyennes de 4 photo-sites verts voisins. On obtiendra ainsi un triplet (R,V,B) où R est une valeur mesurée, V et B des valeurs calculées. La résolution du résultat sera la même que la matrice (de Bayer ou autre) produite pas le capteur.

Dans la pratique les choses sont plus compliquées car le simple calcul de moyenne lissent les variations et produit des photos moles.Il existe un ribambelle d’algorithme ayant pour but de faire meix que la moyenne : PPG, AMaZE, RCD, LMMSE VNG4 ...

Mais quels que soient la sophistication des calculs de dématriçage utilisés, à la fin, seul 1/3 des informations ont étaient réellement mesurés et 2/3 ont été calculés ==> 66% de la photo n'est pas réel !

Note: le dé-matriçage n'est pas un problème propre à astrophotographie. Les fichiers RAW générés par certains appareils photo numériques contiennent la version avant de-matriçage. En astronomie les fichiers RAW sont les fichier FITS.