Outils pour utilisateurs

Outils du site


logiciels:dt:principe:principe

Principe du développement numérique

C'est peut-être un peu trop condensé, mais j'y reviendrais plus tard. Cette page doit beaucoup aux billets de Aurélien Pierre. J'avoue avoir eu du mal à comprendre mais je pense être arrivé à quelque chose qui m'est très utile.

Cette page s'appelle développement numérique en référence au développement argentique car il s'agit de faire apparaître l'image capturée comme on le faisait avec de la chimie quand on révélait la photo latente dans le film puis dans la chambre noire.

Quand j'ai commencé à envisager de développer les fichiers RAW j'ai fait plusieurs lectures (réflexe des profs!) dont “Développer ses fichiers RAW, Volker Gilbert, Eyrolles, 2006” dans lequel, page 106, l'auteur nous montre une photo brute (je suppose lecteur que tu sais lire un histogramme, c'est une base tellement évidente que ce n'est pas décrit dans le manuel de dt, sinon relis le manuel de ta caméra ou tape histogramme photo dans ton logiciel de recherche sur internet -moi c'est duckduckgo ou qwant, j'évite de me faire espionner par Google-)


puis l'image après l'application d'une fonction gamma\.


Ce qui permet de voir le passage de la vue du capteur à notre vue suite à une transformation concrétisée par une fonction gamma. On voit que la fonction étire l'histogramme comme s'il était en caoutchouc en donnant plus d'importance aux lumières qui se trouvaient en quelque sorte tassées dans les ombres (j'ai par la suite retrouvé cette fonction gamma dans les logiciels des scanners).



Ci-dessus, la courbe de réponse d'un film, analogue à l’œil humain, et d'un capteur numérique (conférence de Gérard Berry déjà citée, si tu ne l'as pas encore écoutée il est plus que temps).



Je pensais bien comprendre ça et en concluais que c’était une des premières étapes dans le développement puisque mes lectures théoriques signalaient toutes cette fonction gamma. Je savais aussi que notre œil était plus sensible qu'un capteur, sans trop savoir si c'était dans le sombre ou la lumière d'ailleurs, car si un capteur à de 10 à 14 IL, l’œil en a plus de 20 comme le montre la conférence d'Aurélien Pierre (Je me rappelle sans le retrouver un vidéo qui nous disait que le meilleur moment était au lever et au coucher du soleil car la plage dynamique correspondait à celle du capteur).

En découvrant dt je ne m'étais pas trop posé de question au sujet de la courbe gamma et avais pensé tout “bêtement” et confusément que la courbe de base remplissait le rôle de dé-linéarisation. Mais quand filmique est arrivé, ma confusion est apparue sans toutefois être résolue. J'ai bien vu que la courbe de base ne jouait pas le rôle du gamma que je connaissais même si ça pouvait lui ressembler ou du moins la compléter. Puis avec la v3 le module gamma est devenu visible, il est au tout début du développement, appliqué systématiquement avant que l'utilisateur active lui-même un module : la correction gamma est faite avant de commencer à afficher une image, c'est compatible avec ce que j'ai cité ci-dessus (dommage que je n'avais pas vu ça plus tôt).

En réécoutant avec attention le tutoriel d'Aurélien Pierre on voit ceci qui de toute évidence doit être fait au début du développement de l'image brute :



Ça m'a fait penser à la courbe gamma et en plus ça me donne une explication physiologique de la courbe : les unités sont des IL qui répondent à un logarithme à base 2. Bref, la capture fait alors l'objet d'ajustement technique nécessaire par défaut avant toute autre intervention, dont celui du “gamma”. Et alors que fait-on après, pourquoi ?. (Cette discussion sur la fonction gamma peut sembler inutile, mais elle m'a empêché de comprendre la suite tant que je n’avais pas élucidé ce concept, je l'ai maintenue ici car toi débutant curieux de comprendre tu risques de buter sur la même chose.)


J'avais du mal à interpréter le schéma dans le tutoriel d'Aurélien Pierre dans lequel on voit bien la plage dynamique de l’œil en rapport à celle du capteur, et mon questionnement sans réponse claire pour moi concernait alors le passage de 20 IL à 10-14 IL. Présenté comme un mapping il me gênait car je ne voyais pas comment le capteur peut voir ce qu'il ne voit pas ! Je m'en suis sorti dans un premier temps en me disant que ce n'est pas un mapping mais un choix de plage, ce que semblait me confirmer les commentaires dans la vidéo. (Le HDR qui consiste à réaliser plusieurs captures en commençant d'un côté et en terminant de l'autre de l'espace visible par l’œil apparaît alors comme le moyen de couvrir les 20 IL en cas de nécessité. Ainsi, si le capteur fait 12IL avec quelques décalages on couvre le champs de 20 IL.

Donc par le réglage du diaphragme et de la vitesse on choisit la quantité de lumière utilisable au mieux par le capteur en fonction de sa performance, et après on en minimise l'effet en jouant sur les expositions locales. Puis je me suis dit que peut-être c'est effectivement un mapping proportionnel sur tout l'espace, et peut-être que la capture est meilleure au centre qu'aux bords, et … bref on a une plage dynamique à organiser au mieux au delà du gamma.

Et c'est là que l'audition de la conférence de Gérard Berry m'a de nouveau aidé à comprendre le propos de Aurélien Pierre et en tirer parti :



Notre œil ne perçoit pas une image toute construite, il capte des signaux avec un faisceau étroit, mais il le fait vite, si une zone est sombre l’œil s'ajuste et dès qu'il passe à une autre zone plus lumineuse il s'ajuste aussi instantanément : et ceci est en plus de l'ajustement gamma qui porte indifféremment sur toute plage. Pour reproduire ceci il faut donc appliquer des expositions différentes sur des zones différemment éclairées. C'est ce que l'on fait en contrôlant localement l'exposition sur tout ou partie de l'image. En pratique l’œil + le cerveau font du HDR!.

Dans filmique, et le vidéo cité, on parle de scène, de look et d'affichage, ce sont les 3 niveaux de plage dynamique utilisables au dessus de l’œil du photographe, les petits dessins sont explicites : le capteur (scène) est plus performant que le moniteur (look) que l'on utilise comme plage de travail des modules et que l'affichage final (affichage, par exemple un papier). Donc la scène dans filmique ce n'est pas la scène de l’œil, mais celle de la caméra, le mot créait confusion pour moi, mais c'est réglé. Et cette scène a reçu une première correction celle du gamma, ouf!

Le défi du photographe est alors de faire en sorte que cette compression de la dynamique respecte la vision qu'il veut communiquer à celui qui visionne la photo. Il doit donc pour cela moduler l'exposition localement comme on le faisait sous l'agrandisseur : https://darktable.fr/2020/02/dodge-and-burn-eclaircir-et-assombrir-explique-en-francais/.

Mais en plus notre œil ne voit que des mouvements qui se traduisent par des contrastes (= différence de lumière entre points de capture), la couleur peut être faussée, elle peut être bruitée, elle a encore des défauts optiques ou autres qui peuvent être plus ou moins corrigés comme le fait notre cerveau depuis l'envoi par la rétine, et c'est là que dt entre en jeu par les modules et leur paramétrage appliqués aux bons moments dans le pipe. (Pour le choix des espaces colorimétriques, pour commencer restons avec les défauts de dt, une chose à la fois et les défauts “font une bonne job”).

Donc la scène issue de la capture rend compte “maladroitement” de la “réalité telle qu'on l'a perçue ou penser percevoir” et que l'on veut communiquer, c'est à nous de ruser pour l'améliorer et là il y a plusieurs stratégies pour le faire. L'une des stratégies particulièrement sophistiquée et puissante est celle qu'a développé Ansel Adams (c'est encore Aurélien Pierre qui m'a mis sur la piste, mais c'est ce que je faisais avec mes doigts et des bouts de carton il y a 60 ans en développement argentique), elle consiste à repérer ce que l'artiste peintre appelle des valeurs et à ajuster l'exposition plus ou moins localement en fonction de l'importance que l'on veut donner à une valeur (pour le peintre valeur = force apparente d'une zone de l'image, en aquarelle il est souvent plus important d'avoir la “juste” valeur que la “juste” couleur). Cette stratégie permet la maîtrise des contrastes globaux, c'est une dimension fondamentale de toute œuvre graphique aussi importante que la justesse des couleurs. C'est pour ça qu'il y a des photos en noir et blanc plus expressives que des photos en couleurs.

Et c'est là que les maths arrivent car il faut ajuster la mesure de la lumière localement dans l'image pour rendre compte des valeurs qu'on veut et que le capteur n'a pas fait à notre convenance. Ce sont des algorithmes qui vont le faire, ces algorithmes dépendent de la manière dont la lumière (couleur et intensité) est transformée en chiffres.

Il y a donc des choix à faire qui se révèlent souvent du compromis. Dans la v3 une nouvelle stratégie a été déployée pour la constructions des valeurs en privilégiant un encodage RVB linéaire (voir les billets du développeur Aurélien Pierre qui a codé des modules pour ce faire : ici les liens avec probablement des commentaires, notamment sur l'objectif de rapidité en minimisant le nombre de modules et en organisant leurs paramètres.

logiciels/dt/principe/principe.txt · Dernière modification : 2024/01/28 23:48 de 127.0.0.1