Les «bits» sont les chiffres qu'on utilise en arithmétique de base 2, celle qui règne au fond de nos ordinateurs ; autrement dit, un bit est soit 0, soit 1. Un nombre formé sur 8 bits va donc de 0 à «11111111», soit, en notation décimale, de 0 à 255 (c.à.d. 28-1) tandis qu'un nombre de 16 bits va de 0 à 65535 (c.à.d. 216-1).
En mode 8-bit, les composantes chromatiques RVB sont codées par des nombres de 8 bits. Chacune d'entre elles peut donc prendre 256 valeurs différentes (de 0 à 255) et on peut ainsi coder 256×256×256 couleurs différentes, soit 16 millions environ.
En mode 16-bit, les composantes chromatiques RVB sont codées
par des nombres de 16 bits et chacune d'entre elles peut maintenant prendre
65536 valeurs différentes, ce qui fait qu'on peut coder
65536×65536×65536 couleurs différentes, soit le chiffre
pharamineux de 0,3 millions de milliards de couleurs. Alors qu'on sait
déjà que l'œil ne peut pas séparer les 16
millions de couleurs du mode 8-bit, pourquoi a-t-on éprouvé le
besoin de faire ce saut apparemment démentiel ?
Dans le processus de la retouche des image, chaque fois qu'on augmente le contraste, on n'utilise plus tous les niveaux disponibles dans la discrétisation des couleurs. Le mécanisme est expliqué ci-contre. Les petits ronds représentent la grille des valeurs discrétisées, en entrée ou en sortie, et les traits fins montrent ce qui se passe dans un réglage par courbes. Après transformation, on n'arrive généralement pas pile poil sur l'une des valeurs discrétisées et on arrondit à la valeur la plus proche. Ce qu'on voit dans la figure est qu'on n'occupe plus tous les niveaux en sortie dès qu'on augmente fortement le contraste.
De manière plus précise, on peut voir qu'on n'occupe plus qu'un niveau sur 2 si la pente de la courbe est de 2, qu'un niveau sur 4 si la pente est de 4, etc... Et si les niveaux restants sont trop éloignés les uns des autres et que ça se passe sur un dégadé suffisamment doux, on va voir apparaître des aplats disjoints les uns des autres : on parle de postérisation (banding en anglais sur le web)
Quand on passe du mode 8-bit au mode 16-bit, on resserre la grille dans des proportions considérables (l'intervalle entre deux points est divisé par 256). On perdra toujours la même proportion de de niveaux, mais l'écart entre les niveaux restants va être divisé par 256 et il ne sera certainement plus perceptible.
Au cas où on se demanderait s'il était bien
nécessaire de passer de 8 à 16 bits (pourquoi pas 10
ou 12 seulement ?), il faut savoir que la mémoire dans un ordinateur est
organisée en octets, c.à.d. des ensembles indivisibles
de 8 bits ; par conséquent, si 8 bits ne suffisent pas, on doit
passer à 16.
Les scanners ou les appareils numériques proposent de sortir leurs images soit en 8-bit, soit en 16-bit. En ce qui concerne les appareils numériques, cette option concerne surtout la sortie des programmes RAW. En cette année 2007, quasiment toutes les fonctions de Photoshop fonctionnent en 16-bit (ce n'a pas toujours été le cas), mais
La question est donc de savoir s'il vaut mieux travailler systématiquement en 16-bit ou bien rester en 8-bit et ne revenir en 16-bit qu'occasionnellement, quand on aura constaté un problème en 8-bit. Evidemment, le problème ne se pose pas si on ne fait que des photos en JPEG, mais il reviendra quand on aura pris goût aux vertus du RAW.
Ce dilemme a fait l'objet de débats passionnés dans les
années 2000-2005 entre les
grands gourous de la photo numérique — j'y reviendrai plus
loin —, qui se sont peu à peu arrêtés par
fatigue mutuelle sans qu'on ait atteint de consensus explicite ; autant dire qu'il
reste d'actualité.
L'image ci-après montre ce qui se passe sur des dégradés doux quand on ne retient qu'un niveau sur 4 ou sur 8 ; les histogrammes sont superposés aux images. Cliquez sur les différents liens en légende pour faire apparaître différentes versions de cette image.
Image de base
—
1 niveau restant sur 8
—
1 niveau restant sur 4
image de base avec du bruit
—
1 niveau restant sur 8, avec du bruit
On en conclut que :
Incidemment, la réduction du nombre des niveaux utilisés se fait au moyen de deux réglages par courbes antagonistes. Par exemple, pour ne prendre qu'un niveau sur 4, le premier est un simple droite allant de (0,0) à (255,64) alors que le deuxième est également une simple droite, mais allant de (0,0) à (64,255)
La première conclusion pratique, avec les photos de tous les jours en mode 8-bit, est qu'on ne devrait rencontrer aucun problème tant qu'on n'augmente pas le constraste dans un rapport supérieur à 4, d'autant plus qu'il y a toujours un peu de bruit dans les images.
Plus précisément, quand éprouve-t-on le besoin d'augmenter le contraste aussi fortement ? Je vois deux grands cas de figure :
Bref, pour les photos de tous les jours, je ne crois pas utile de s'encombrer du mode 16-bit; j'admets que certaines photos puissent le demander, mais cela doit être assez rare pour ne pas en faire une règle — et personnellement, je n'en ai pas encore rencontré (mais je ne suis pas encore un très grand photographe :-))
(Bien entendu, le terme «photo de tous les jours» en 2007
implique des fichiers en sRGB ou en Adobe-98, pas dans un profil à
très grand gamut comme ProPhotoRGB)
Toutes les opérations internes aux scanners sont menées en mode 16-bit, mais la question est de savoir s'il faut sortir les images en 8-bit ou en 16-bit. Margulis ayant constaté que certains scanners ne faisaient pas correctement le passage en 8-bit recommande de sortir en 16-bit... et de repasser immédiatement en 8-bit dans Photoshop.
C'est un simple bug et on peut espérer que nos scanners modernes ne souffrent plus de cette affliction... mais encore faudrait-il vérifier.
L'expérience consiste à sortir deux fichiers du scanner, l'un
directement en 8-bit, et l'autre en 16-bit qu'on rabat en 8-bit sous
Photoshop. On compare les deux
images. Si tout se passe bien, les différences devraient
être imputables à de simples erreurs d'arrondi.
Margulis accorde que les images N&B soumises à un traitement sévère (massive edits) peuvent se trouver mieux d'être en mode 16-bit, surtout si elles comportent des dégradés doux comme des ciels. Cependant, les images avec beaucoup de (petits) détails passeraient mieux en mode 8-bit. Je trouve ça un peu vague, mais je n'ai pas assez d'expérience pour émettre une opinion.
Toujours d'après Margulis, les images en N&B seraient plus sensibles
que les images en couleur à la commutation 8-bit/16-bit.
Les débats ont opposé entre 2000 et 2005 quelques grands noms comme Dan Margulis, Jeff Schewe, Andrew Rodney, Bruce Fraser, Bruce Lindbloom et beaucoup d'autres moins connus, avec des échanges parfois très vifs et pas toujours très élégants, qui se sont apparemment terminés par un long article de Dan Margulis, que ses opposants ne se sont pas donnés la peine de reprendre. J'ai repris cet article sous la forme d'un document PDF plus facile à lire (152 ko).
En gros, le point de vue de Margulis est semblable au mien. Au plus fort des débats, il avait mis ses adversaires au défi de lui soumettre une image sortant d'un «travail ordinaire de photographe» et exigeant un traitement en mode 16-bit. Evidemment, ses adversaires lui ont soumis des images pas si ordinaires que ça et qu'il a été amené à récuser au fur et à mesure, ce qui fait qu'on l'a accusé de mauvaise foi et de changer les règles du jeu quand ça l'arrangeait.
Dans ce rapport final, il semble qu'une seule image l'ait un peu embêté, réalisée par un certain Jonathan L. Wienke avec un Canon 1DS — du moins c'est ce qu'on peut lire dans les données IPTC de l'image. Le lien précédent permet d'accéder à l'image originale en TIFF 16-bit (8,5 Mo) et au script Photoshop contenant le traitement subi par cette image, de sorte que chacun peut voir ce qui se passe quand on traite cette image en 16-bit, puis en 8-bit.
On voit ci-contre l'image avant et après traitement. En 8-bit, on distingue des choses pas trop propres sur le bord noir de la bâtisse en bas à gauche
Dans son article, Margulis réfute également la pertinence de cette image, mais parfois avec des arguments qui n'ont pas grand chose à envier à ceux de ses détracteurs sur le plan de la mauvaise foi. Par exemple, il reproche d'avoir utilisé des accentuations avec des seuils nuls qui seraient «clairement conçus pour faire monter le bruit» (sic, enfin, en anglais). Qu'à cela ne tienne ! Il suffit de désactiver ces accentuations dans le script... et on constate que cela ne change rien. :-)
Il reproche aussi que cette image ait été délibéremment sous-exposée, de telle sorte qu'elle ne serait pas représentative d'un travail ordinaire de (bon) photographe. C'est également à la limite de la mauvaise foi. En fait, je pense que c'est exact, mais ce n'est pas si évident que cela à montrer ; on peut estimer qu'on aurait pu ouvrir d'un diaphragme de plus, mais cela aurait-il suffi à éliminer le bruit en mode 8-bit ?
Ci-contre à droite, j'ai dû augmenter le contraste 64
fois (!!) pour montrer les détails du feuillage perdus dans
l'ombre et qu'on voudrait faire ressortir. On peut montrer que ces détails
correspondent à L=0,005 c.à.d. une réflectivité
de 5.10-6, soit entre 17 et 18 diaphragmes en-dessous du
blanc ! Comme la dynamique du capteur du Canon 1DS n'est que de 6 à 7
diaphragmes, cela signifie qu'on est en dehors de sa dynamique utile,
dans la queue fortement non-linéaire
de la courbe de sensibilité rappelée ci-dessous à
gauche, d'après un article de
Henri Gault.
Ces détails situés dans la zone où le capteur
détecte un signal extrêmement faible, mais non nul,
pourrait se situer autour du point indiqué par la flèche, le
point d'interrogation étant là pour rappeler toute
l'incertitude de
cette évaluation. Finalement, assez vraisemblablement, on ne serait guère qu'à environ 1
diaphragme en dehors de la dynamique utile du capteur.
Or le problème du photographe était qu'il y avait aussi deux
zones très claires dans l'image, la panneau de basket et le nuage. A
mon avis, il pouvait surexposer sans souci le panneau de basket, mais pas le
nuage. Celui-ci étant à L=74 dans son image (soit une
réflectivité de 0,47), cela lui laissait la
possibilité d'ouvrir de 1 diaphragme en plus, précisément le
diaphragme manquant pour ramener les feuillages à l'ombre dans la plage
utile du capteur. On ne peut évidemment pas être certain
de cette prédiction en raison des imprécisions dans la courbe
de sensibilité ci-dessus, mais
un bon photographe face à une prise de vue aussi délicate
aurait normalement dû essayer cette pose, et finalement, Dan Margulis
pouvait bel et bien accuser son détracteur d'avoir saboté sa
prise de vue.
On peut toutefois reconnaître que la photo a été sous-exposée, le regretter, mais néammoins chercher à en tirer le maximum. Dans ce cas, il vaudra mieux travailler en mode 16-bit, mais par là-même, on sort du travail de routine sur des images posées correctement. On peut ajouter que dans le cas des images à très grande dynamique (comme cette image), vouloir récupérer des détails dans des tons très sombres revient à travailler délibéremment là où le capteur n'est plus linéaire. Il est alors difficile de reconstituer un étagement correct des valeurs; il vaut mieux faire plusieurs poses et former une image HDR.