Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
filmique [2020/03/20 22:44]
dpascot [La construction de la photo (développement)]
filmique [2020/04/02 10:48] (Version actuelle)
dpascot
Ligne 1: Ligne 1:
-====== Ce qu'il faut connaître pour apprécier les modules filmique, égaliseur de ton et balance couleur ====== +mon texte à évoluémaintenant ​le voir ici https://​labo.pascot.ca/
-====== Nouvelle version allégée======  +
-===== Introduction ===== +
-**Une photo c'est la transcription sur un médium (papier, moniteur) ​à l'aide d'une caméra de la perception fabriquée par notre cerveau à partir de signaux captés par nos yeux.**\\ +
-Je tente ici d'​exprimer un “récit” de la photo. Je l'​appelle récit car c'est une suite de concepts cohérents qu'il faut accepter soit théoriquement (un peu comme un mythe) soit empiriquement qui repose sur une "​religion"​ l'​abstraction mathématique.\\ +
-//Les récits nous aident à comprendre ce qui n'est pas directement perceptible (mystère), c'est pas nouveau, ça a commencé par l'​Iliade et l'​Odyssée,​ et continué par les mythes et religions ou les fables économiques ( Michel Serres, le grand récit).//​ +
-==== La lumière ==== +
-//**Au début est la lumière**//​.\\ +
-Les physiciens nous disent depuis presque un siècle que lumière c'est de l'​énergie qui nous apparaît sous forme de minuscules particules, les photons auxquels une vibration est associée. Ils savent en mesurer certains effets et les représenter avec des formules mathématiques.\\ +
-=== La lumière en tant que photon === +
-La force de la lumière perçue provient de l'​intensité du flux de photons émis par une source\\ +
-  * Peu de photons et c'est l'​obscurité (le physicien dit que aucun photo émis, c'est le noir absolu à 0 degrés Kelvin et alors plus rien ne bouge) +
-  * Beaucoup de photons et c'est l'​éblouissement (par exemple l'​étoile soleil)\\ +
-  * La lumière est plus ou moins réfléchie par la matière : c'est cette réflexion qui concerne la photo \\ +
-=== La lumière en tant que vibration : la couleur === +
-  * les couleurs sont associées à une fréquence de la vibration des photons (sa longueur d'onde est représentée par la lettre grecque lambda),  +
-  * à chaque fréquence correspond une couleur entre 400 nm (violet, en deçà ce sont les UV, ceux qui brûlent notre peau sans chaleur) et 800 nm (rouge, au delà ce sont les infrarouges,​ ceux qui nous chauffent sans nous brûler). +
-{{ :​filmique:​concepts:​spectre-visible_1_orig.gif?​400 |}} +
-    * Chaque fréquence a des propriétés particulières mais on ne sait pas pourquoi ça fait partie du mystère que l'on découvre empiriquement. On considère que la synthèse de toutes les couleurs c'est le blanc, mais on ne comprend pas pourquoi. +
-    * On caractérise une source de lumière par sa température en degrés Kelvin , la température de l'​absence de lumière est zéro degré, celle de notre lumière du jour autour de 5 000 degrés (en ce qui nous intéresse environ entre 1 000 et 20 000). +
-===== La vision humaine ==== +
-//**Et dieu créa l'​homme et la femme et les dota de vision**//​\\ +
-La vision humaine est fantastique,​ on commence à s'en faire une bonne idée : nos perceptions sont le résultat d'un organe très élaboré, notre oeil (https://​fr.wikipedia.org/​wiki/​%C5%92il_humain),​ qui travaille en relation étroite avec notre cerveau (https://​fr.wikipedia.org/​wiki/​Vision_humaine).\\ +
-Quand on étudie la vision humaine on ne peut que penser qu'il a fallu une formidable intelligence pour l'​inventer : ça reste un mystère. +
-==== l'oeil ==== +
-=== constitution === +
-  * __le cristallin__ : il permet de projeter ou concentrer la lumière sous la forme d'un flux lumineux utilisable par la rétine, il est rapidement très mobile. Il reçoit la lumière qui est contrôlée par la pupille qui s'​ajuste à la lumière, l'​ajustement est relativement lent, quelques secondes, mais il donne à la vision une grande plage dynamique (20 à 24 EV) +
-  * __la rétine__ : elle est tapissée de cellules ultra spécialisées (les cônes et les bâtonnets),​ ce sont des capteurs de photons sensibles à leur nombre (intensité lumineuse) et leur fréquence (couleur), les deux aspects de la lumière.  +
-      * Chacune de ces cellules, très petite, transmet au cerveau la lumière reçue sous la forme d'un message électrique  +
-      * **Les cônes captent la lumière suivant 3 groupes de fréquence, l'un centré sur le bleu, l'​autre le vert et l'​autre le rouge** +
-      *    {{ :​filmique:​concepts:​vision.png?​400 |}} +
-      * Ces cellules sont plus performantes quand l'​intensité est petite que quand elle est grande, ce qui prévient de l'​éblouissement (c'est sûrement le résultat de l'​évolution,​ le danger vient de l'​ombre ... disent certains). On dit que leur comportement est non linéaire (représenté mathématiquement par une fonction gamma). ​  +
-      * l'​angle de vision nette (fovéa) est tout petit (6 degrés) et celui de la couleur fait 60 degrés. +
- {{ :​filmique:​concepts:​oeil.png?​400 |}} +
-=== fonctionnement === +
-La vision est continue +
-  * l’œil filme en permanence, ni l’œil, ni le cerveau prennent des photos l'une après l'​autre.  +
-  * La rétine ne voit qu'un petit faisceau à la fois, en fait l’œil balaye en permanence très (60 fois par seconde) vite la scène sans que l'on en aie conscience. +
- +
-==== Cerveau ==== +
-**le cerveau est capable à partir des messages reçus de manière continue de fabriquer une représentation colorée de la scène** observée par l’œil (comment ? encore un mystère), il  +
-  * corrige la couleur de la source (une source a une fréquence plus ou moins homogène), on mesure la source par  le degré Kelvin (zéro la source n'​émet pas de lumière trou noir +
-  * grâce au balayage incessant de la scène  +
-    * il "nous montre"​ une image de très grande profondeur de champ car elle est le résultat combiné de plusieurs vues. +
-    * ajuste les zones sombres et claires pour composer une image équilibée +
-**Ce que nous percevons est donc une construction à partir des signaux électriques émis par la rétine dans notre cerveau en temps réel en fonction de ce qui nous intéresse : notre cerveau est algorithmique et partial, il n'a pas le choix il faut qu'il trie et sélectionne,​ et pour ça il privilégie ce qu'il connaît déjà il corrige par exemple la couleur d'un objet en fonction de son éclairage !**\\ +
-===== La vision des caméras ===== +
-//**Et l'​homme créa des outils**//​\\ +
-==== La photo au temps de l'​argentique : le contrôle de l'​exposition ==== +
-  * la pellicule au niveau de chaque grain a un comportement non linéaire proche de la vision unitaire humaine (les cônes et les bâtonnets) +
-  * on pouvait dans une certaine mesure contrôler les contrastes avec les choix de la pellicule, son développement et le choix du papier +
-  * dodge and burn : c'est ce que je faisais, sans en connaître le nom, dans le labo paternel il y a plus de 50 ans. Avec mes doigts et des bouts de carton il y a 60 ans. Cela consiste à repérer ce que l'​artiste peintre appelle des valeurs et à ajuster l'​exposition plus ou moins localement en fonction de la valeur que l'on veut donner à une zone de la photo (pour le peintre valeur = force apparente d'une zone de l'​image,​ en aquarelle il est souvent plus important d'​avoir la “juste” valeur que la “juste” couleur). Cette pratique permet la maîtrise des contrastes, c'est une dimension fondamentale de toute œuvre graphique , c'est pour ça qu'il y a certaines photos en noir et blanc plus expressives que des photos en couleurs. +
-**La principale leçon est que la l'art de la photo résidait dans le contrôle de la lumière et donc de l'​exposition depuis la prise de vue jusqu'​au développement (ça reste vrai en numérique).**  +
-==== La vision numérique ==== +
-Il y a de grandes différences entre voir une scène dans notre cerveau et prendre et voir une photo.  +
-  * D'​abord la capture est statique alors que notre vision est construite dynamiquement +
-  * Le capteur n'a pas les mêmes caractéristiques que la rétine et comporte des défauts (bruit) +
-  * Nos objectifs sont limités à une focale par image et ont des aberrations  +
-  * La représentation de la lumière est faite par des modèles mathématiques approximatifs de ce que l'on pense connaître de la lumière et de la vision humaine +
-  * Nos papiers et moniteurs ont des performances limités en ce qui concerne la plage dynamique et la couleur +
-La réalisation d'une photo numérique est le résultat d'une capture par une caméra à travers un objectif en fonction de réglages qui produit une matrice de mesures (le fichier RAW). Cette matrice initiale est utilisée par du logiciel pour calculer une nouvelle matrice qui permet d'​afficher une image sur un moniteur ou de l'​imprimer sur un papier. +
-    * Pour pouvoir être utilisés par un logiciel d'​affichage les pixels doivent indiquer l'​intensité et la composition de la couleur.  +
-    * La correspondance entre une combinaison de valeurs et la perception lumineuse est définie par un espace colorimétrique +
-    * {{ :​filmique:​concepts:​colorimetrie.png?​300 |}} +
-    * il existe plusieurs moyens de modéliser la lumière, le choix dépend des calculs que l'on veut faire, les conversions se font par calcul mais ne sont pas toujours réversibles (pertes) +
-    * il existe plusieurs espaces colorimétriques en fonction du médium d'​affichage +
-==== Le capteur ==== +
-Les capteurs de la caméra sont couverts par un filtre vert, rouge ou bleu, ce qui fait que la caméra reçoit la lumière comme des points vert, rouge et bleu et pour chacun il transmet un nombre qui en donne l'​intensité : c'est ce que contient le fichier RAW (avec aussi des paramètres de la prise de vue, des méta données qui nous seront utiles).  +
-On appelle ce genre de tableau une matrice (on a des outils mathématiques pour calculer avec des matrices que l'on sait faire exécuter par un ordinateur).  +
-À partir de là tout est affaire de calculs. +
-==== La construction de la photo (développement) ==== +
-//​remaniement pas fini// +
-Le développement d'une photo consiste dans une suite de calculs qui s'​enchaînent à partir de la matrice de capture initiale de façon à ajuster les expositions (intensité du sombre au clair) et les couleurs. Comme ces deux dimensions sont intégrées dans la capture initiale, il faut les séparer ce qui ne va pas sans conséquences. +
-Le développement complet consiste à faire dans la mesure du possible ce qui n'a pas pu être fait par le capteur (qui n'a pas toutes les caractéristiques de l'​oeil) ou qui est fait par le cerveau ​ afin de restituer la perception initiale du photographe à l’aide d’algorithmes. +
-Tout ce que le capteur n'a pas fait à notre convenance doit être réalisé par des algorithmes,​ ces algorithmes dépendent évidemment de la manière dont la lumière (couleur et intensité) est transformée en nombres. +
-  * Transformation de la capture pour qu'​elle puisse être utilisée par des logiciels (dé-matriçage) +
-    * transformation de chacun des pixels d'une mesure linéaire à une mesure non-linéaire qui s'​approche de la vision humaine (c'est la fonction gamma) +
-    *  {{ :​filmique:​concepts:​courbes.png?​300 |}} +
-    * séparation de la mesure d'​intensité (luminance) de la mesure de couleur (chrominance) +
-    * Ces 3 points voisins vont donner, suite à une série de calculs, un pixel coloré que le logiciel pourra alors modifier et montrer: c'est le travail du logiciel qui assure le développement.  +
-  * Correction du bruit : les capteurs sont perturbés par du bruit surtout dans le sombre (plus le signal est faible, plus il est perturbé). Le bruit du capteur est d'​origine atomique, les capteurs sont si petits qu'ils subissent les variations aléatoires inévitables à ce niveau de la matière ou d'​énergie,​ ceci indépendamment sur chaque canal vert, rouge et bleu, ce qui fait que des pixels de couleur très voisins peuvent présenter des différences d'​intensité (**luminance**) et de couleur (**chrominance**) aléatoires qui à un niveau macroscopique sont fondus dans une moyenne (le mot canal revient souvent il correspond aux captures rouge vert ou bleu émises par les capteurs). +
-  * les défauts optiques une fois connus peuvent être corrigés plus ou moins bien par des calculs +
- +
- +
-  * Les capteurs sont limités à 10 à 14 EV suivant leur qualité, donc moins que la capacité humaine, ce qui fait que tout ce qu'ils ne captent pas de la scène, on s'en fout (comme le dit Aurélien Pierre dan sa présentation),​ comprendre ça m'a bien aidé. La scène c'est alors ce qu'a capté le capteur, charge au photographe de choisir une bonne exposition et donc un bon positionnement de sa plage dynamique (cadrage de l'​histogramme à droite). +
- +
- +
- +
- +
- +
-  * Se pose alors la très délicate et complexe question du choix du modèle de représentation de la lumière, comment séparer la couleur apportée par la longueur d'onde (chrominance ou chromaticité , //je ne sais pas trop le concept à utiliser//) de l'​intensité lumineuse (luminance),​ car il n'y a pas qu'une façon de faire et le passage de l'une à l'​autre n'est pas sans effet de bord surtout si la transformation n'est pas réversible (d'un point de vue mathématique,​ les modèles linéaires on l'​avantage d'​être réversibles).  +
-Il est en effet nécessaire de pouvoir contrôler la couleur indépendamment de la valeur = degré d'​intensité ou de saturation.  +
-Ce que l'on veut, sans impact sur la couleur, c'est pouvoir assombrir certaines parties de l'​image et en éclaircir d'​autres comme le fait dynamiquement notre cerveau, cela revient à faire une correction au niveau de zones de l'​image analogue à celle qui est faite techniquement au-préalable au niveau de chacun des pixels : c'est ce que font filmique et l'​égaliseur de ton d'une part et la balance des couleurs d'​autre part. +
-  * Se pose le problème de la plage dynamique car les médias d'​affichage on une plage dynamique plus petite que celle du capteur. +
-  * Se pose aussi le choix de l'​espace colorimétrique +
- +
-==== darktable ==== +
-Il y a des choix à faire qui se révèlent souvent du compromis. Dans la v3 une nouvelle stratégie a été déployée pour la construction des valeurs en privilégiant un encodage RVB linéaire (voir les billets du développeur Aurélien Pierre qui a codé des modules pour ce faire) +
-Pour comprendre comment les algorithmes manipulent la lumière, il va maintenant falloir faire un peu de maths, enfin voir ce qu'on fait avec\\ +
-\\ +
-**Une photo est la communication de notre perception faite par un outil que l'on maîtrise de mieux en mieux mais il reste encore des pans de mystère que l'on doit aborder empiriquement.** +
-====== Ancienne version ====== +
- +
-===== Introduction ===== +
-Ce sont 3 nouveaux modules développés dans darktable par Aurélien Pierre qui ont pour objectif d’obtenir de bons résultats rapidement mais il y a une condition pour les apprécier : comprendre pourquoi ils ont été conçus ainsi.\\ +
-**Une photo c'est la transcription sur un médium (papier, moniteur) à l'aide d'une caméra de la perception fabriquée par notre cerveau à partir de signaux captés par nos yeux**.\\ +
-//Je tente ici  ​d'​exprimer un "​récit"​ de la photo.//​\\ +
-On aime bien les mythes ou les récits, ils nous aident à comprendre ce qui n'est pas directement perceptible (mystère), c'est pas nouveau, ça a commencé par l'​Iliade et l'​Odyssée,​ et continué par les mythes et religions ou les fables économiques ([[https://www.humanite.fr/​node/​304504 | Michel Serres, le grand récit]]).\\ +
-**Le récit qui nous concerne ici doit nous aider à comprendre un mystère afin que nous commencions à le maîtriser**. Ce récit doit décomposer le mystère global en petits mystères acceptables,​ il doit nous dire ce qu'est la lumière, comment notre œil et notre cerveau construisent en permanence des représentations d'une scène éclairée que nous déclarons percevoir, et comment on se débrouille avec une caméra numérique ​ pour retranscrire une scène sur un papier ou un moniteur que nous considérons comme analogue à ce que nous pensons.\\ +
-note 0 : rédigé à la suite de l'​audition de la session diffusée par Aurélien Pierre (https://​darktable.fr/​2020/​03/​fr-darktable-3-0-1-colorimetrie-et-complements-theoriques/​) +
-note 1 : une conférence très inspirante de Gérard Berry que nous avait signalée Aurélien Pierre https://​darktable.fr/​2019/​06/​comment-linformatique-change-la-photographie/,​ si vous ne l'avez pas encore vue il est plus que temps. +
-note 2 : ici je traite des concepts en amont des outils +
-note 3 :  Il y a des choses dans les présentations d'​Aurélien Pierre ainsi que dans des lectures complémentaires ​ que je n'ai compris qu’après plusieurs visionnements ou lectures. Pour une personne très compétente il y a des choses triviales qui vont de soi, mais qui sont bloquantes pour les ignorants non nuls (dont je suis). Progressivement un "​récit"​ a pris forme. Pour qu'un récit soit utile il faut qu'il soit cohérent et réponde de manière acceptable à nos interrogations +
-note 4 : emprunte à un wiki en cours de rédaction sur lequel je travaille depuis noël. +
-===== Mise en forme du "​récit ou histoire"​ ===== +
-==== La lumière ==== +
-//**Au début fut la lumière**//​.\\ +
-La lumière c'est de l'​énergie qui nous apparaît sous forme des photons auxquels une vibration est associée.\\ +
- ​C'​est une petite partie des énergies électromagnétiques qui comprennent les rayons gamma, les UV, les infrarouges mais aussi les ondes radio, c'est une des énergies fondamentales de l'​univers ​ (https://​fr.wikipedia.org/​wiki/​%C3%89nergie_%C3%A9lectromagn%C3%A9tique#​Rayonnement_et_photom%C3%A9trie) . \\ +
-Je sais bien que dire ça n'​éclaire pas le mystère de la photo mais au moins  ça le met en perspective. C'est relatif un grand mystère de l'​Univers et ça nous avertit : pour la représenter à des fins de manipulation,​ il va falloir plus tard recourir aux maths parce qu’on aura besoin de la science des physiciens.\\ +
-=== La lumière en tant que photon === +
-La force de la lumière perçue provient de l'​intensité du flux de photons reçus par un capteur (car il faut un capteur pour la mesurer)\\ +
-  * Peu de photon c'est l'​obscurité (on dira le noir) +
-  * Beaucoup de photons et c'est l'​éblouissement (on dira le blanc, à remarquer qu'il n’existe pas de blanc pale et de blanc foncé, //ici pas sûr je dis peut-être une bêtise//​).\\ +
-  * On caractérise une source de lumière par sa température en degrés Kelvin , la température de l'​absence de lumière est zéro degré, celle de notre lumière du jours autour de 5 000 degrés (en ce qui nous intéresse environ entre 1 000 et 20 000).\\ +
- === La lumière en tant que vibration : la couleur === +
-    * spectre : les couleurs sont associées à une fréquence de la vibration du photon (sa longueur d'onde est représentée par la lettre grecque lambda),  +
-    * à chaque fréquence correspond une couleur entre 400 nm (violet, en deçà ce sont les UV, ceux qui brûlent notre peau sans chaleur) et 800 nm (rouge, au delà ce sont les infrarouges,​ ceux qui nous chauffent sans nous brûler). +
-{{ :​filmique:​concepts:​spectre-visible_1_orig.gif?​400 |}} +
-    * Chaque fréquence a des propriétés particulières mais on ne sait pas pourquoi ça fait partie du mystère que l'on découvre empiriquement. +
-    * décomposition avec un prisme : une façon de faire apparaître toutes les couleurs qui composent la lumière blanche.  +
-{{ :​filmique:​concepts:​prisme.jpeg?​200 |}} +
-    * On peut facilement expliquer pourquoi le prisme décompose les longueurs d'onde différentes,​ en fonction de la vitesse de la lumière, mais pas pas pourquoi la synthèse de toutes les couleurs est blanche. +
-Il y a une complexité qu'il va falloir aborder : intensité de la lumière et couleur sont intimement mêlés, et les séparer c'est pas facile. +
- +
-=== Scène === +
-  * Les scènes que nous voyons sont le résultat des réflexions d'une ou plusieurs sources de lumière sur des objets qui en eux-même ne produisent pas de lumière (dans certains cas la scène comporte des sources de lumières). La lumière réfléchie est donc le résultat d'une composition de la source et de la réflexion des objets éclairés. +
-  * La longueur d'onde (fréquence) réfléchie dépend de la structure atomique de l'​objet +
-  * Les objets absorbent ou réfléchissent plus ou moins la lumière reçue +
-    * s'ils absorbent tout ils sont sombres +
-    * s'ils réfléchissent beaucoup ils sont très clairs à la limite blancs. +
-Voila ce qui "​éclaire"​ un peu le mystère de la lumière, voyons maintenant la vision humaine +
-   +
-===== La vision humaine ==== +
-//**Et dieu créa l'​homme et la femme et les dota de vision**//​\\ +
-La vision humaine est fantastique,​ on commence à s'en faire une bonne idée : nos perceptions sont le résultat d'un organe très élaboré, notre oeil (https://​fr.wikipedia.org/​wiki/​%C5%92il_humain),​ qui travaille en relation étroite avec notre cerveau (https://​fr.wikipedia.org/​wiki/​Vision_humaine).\\ +
-Quand on étudie la vision humaine on ne peut que penser qu'il a fallu une formidable intelligence pour l'​inventer : ça reste un mystère. +
-==== l'oeil ==== +
-=== constitution === +
-  * le cristallin : il permet de projeter ou concentrer la lumière sous la forme d'un flux lumineux utilisable par la rétine (et ses mécanismes d'​ajustement) +
-  * la rétine : elle est tapissée de cellules ultra spécialisées (les cônes et les bâtonnets),​ ce sont des capteurs de photons sensibles à leur nombre (intensité lumineuse) et leur fréquence (couleur), les deux aspects de la lumière.  +
-      * Chacune de ces cellules, très petite, transmet au cerveau la lumière reçue sous la forme d'un message électrique  +
-      * **Ces cellules ne captent pas la lumière fréquence par fréquence mais suivant 3 groupes de fréquence, l'un centré sur le bleu, l'​autre le vert et l'​autre le rouge**, ainsi le message est composé de 3 valeurs, pour le rouge, le bleu et le vert +
-      * Ces 3 valeurs sont modulées par l'​intensité (//à valider//​) +
-    {{ :​filmique:​concepts:​vision.png?​400 |}} +
-      * On représente la correspondance entre les valeurs R G B et la couleur perçue par une espace chromatique (//à compléter//​) +
-{{ :​filmique:​concepts:​colorimetrie.png?​400 |}} +
-      * les cellules son construites pour être plus performantes quand l'​intensité est petite que quand elle est grande, ce qui prévient de l'​éblouissement (c'est sûrement le résultat de l'​évolution,​ le danger vient de l'​ombre ... disent certains). On dit que leur comportement **individuel** ou unitaire (//​attention le caractère individuel est important, j'​étais confus tant que je ne l'​avais pas compris//) est non linéaire (fonction gamma). ​  +
-      * l’œil a une avec une grande sensibilité (on dira plage dynamique) : la rétine permet une variation de 20 à 24 IL (tout bon photographe ​ sais qu'un IL -ou EV en anglais- est le changement de la quantité de lumière obtenu en changeant d'un diaphragme, indice de sensibilité ou vitesse; chaque changement correspond à une multiplication -ou division- par 2) +
-=== fonctionnement === +
-La vision est continue, l’œil filme en permanence, ni l’œil, ni le cerveau prennent des photos l'une après l'​autre.  +
-La rétine ne voit qu'un petit faisceau à la fois, en fait l’œil balaye en permanence très vite la scène sans que l'on en aie conscience:​ +
-{{ :​filmique:​concepts:​oeil.png?​400 |}} +
-      * l'​angle de vision nette et de la couleur est tout petit +
-      * Ce petit angle de visée bouge tout le temps, 60 fois par seconde, il balaie en permanence la scène en s'​ajustant localement +
-==== Cerveau ==== +
-  * **le cerveau est capable à partir des 3 "​résumés"​ des fréquences des photons reçues de retrouver les fréquences et la force ou intensité de la lumière afin de fabriquer une représentation colorée de la scène** observée par l’œil (comment ? encore un mystère) +
-  * Ce petit angle de visée qui bouge tout le temps, des dizaines de fois par seconde, fait que ce que le cerveau "nous montre"​ est le résultat d'un travail formidable qui fait en sorte que l'on voit une image de très grande profondeur de champ car elle est le résultat combiné de plusieurs vues. +
-  * Ceci fait aussi que les mouvements et les contrastes qu'il reçoit créent la perception +
-  * la notion de profondeur de champ n’est pas pertinente car l’œil ajuste en permanence très vite en déplaçant le focus +
-  * notre cerveau corrige la couleur de la source (une source a une fréquence plus ou moins homogène), on mesure la source par le degré Kelvin (zéro la source n'​émet pas de lumière trou noir) +
-  * (//Ceci est un peu mon interprétation pour maintenir ​ la cohérence du récit.) //Comme la vision privilégie le sombre en protégeant de l’éblouissement : l’œil ajuste **localement** l'​intensité du faisceau au cours du balayage. Cet ajustement est différent de l'​ajustement unitaire de chaque cône ou bâtonnet. Par exemple, assis dans mon salon, quand je regarde en face de moi, par la fenêtre je vois bien un paysage lumineux (il est enneigé mi-mars à Québec!) mais en même temps je vois nettement le fauteuil devant la fenêtre. Mais si je prends une photo, il faut que je choisisse ou la fenêtre ou le fauteuil pour que les 2 soient bien exposés. Ma vision fait du HDR en permanence, je pense que c'est le résultat du balayage incessant que fait l’œil et du travail du cerveau. Tout un défi !. +
-**Ce que nous percevons est donc une construction à partir des signaux électriques émis par la rétine dans notre cerveau en temps réel en fonction de ce qui nous intéresse : notre cerveau est algorithmique et partial, il n'a pas le choix il faut qu'il trie et sélectionne,​ et pour ça il privilégie ce qu'il connaît déjà il corrige par exemple la couleur d'un objet en fonction de son éclairage !**\\ +
-Muni de ce récit de la vison humaine, abordons sa "​robotisation"​\\ +
-===== La photo numérique ===== +
-//**Et l'​homme créa des outils**//​\\ +
-Par analogie avec la vision humaine la réalisation d'une photo numérique est le résultat d'une capture, pour nous le fichier RAW. La capture est faite par les objectifs et le capteur (avec leurs mécanismes d'​ajustement) puis l'​image est construite par du logiciel en appliquant une suite d’algorithmes,​ pour nous dans darktable. +
-Il y a de grandes différences entre la photo d'une scène et ce que l'on peut en montrer avec une photo.  +
-  * D'​abord la capture est statique alors que notre vision est construite dynamiquement +
-  * Le capteur n'a pas exactement les mêmes caractéristiques que la rétine +
-  * La représentation de la lumière est faite par des modèles approximatifs de ce que l'on pense connaître de la vision humaine +
-==== La photo au temps de l'​argentique : le contrôle de l'​exposition ==== +
-  * la pellicule au niveau de chaque grain a un comportement non linéaire proche de la vision unitaire humaine (les cônes et les bâtonnets) +
-  * on pouvait dans une certaine mesure contrôler les contrastes avec les choix de la pellicule, son développement et le choix du papier +
-  * dodge and burn : c'est ce que je faisais, sans en connaître le nom, dans le labo paternel il y a plus de 50 ansAvec mes doigts et des bouts de carton il y a 60 ansCela consiste à repérer ce que l'​artiste peintre appelle des valeurs et à ajuster l'​exposition plus ou moins localement en fonction de la valeur que l'on veut donner à une zone de la photo (pour le peintre valeur = force apparente d'une zone de l'​image,​ en aquarelle il est souvent plus important d'​avoir la “juste” valeur que la “juste” couleur). Cette pratique permet la maîtrise des contrastes, c'est une dimension fondamentale de toute œuvre graphique , c'est pour ça qu'il y a ceraines photos en noir et blanc plus expressives que des photos en couleurs. +
- +
-**La principale leçon est que la l'art de la photo résidait dans le contrôle de la lumière et donc de l'​exposition depuis la prise de vue jusqu'​au développement,​ et que ça reste vrai pour le numérique.** +
-==== La vision numérique ==== +
-Comment voit un ordinateur (la caméra est un ordinateur, et même un ordinateur puissant)? Eh bien il "​voit"​ sous la forme de nombres car il ne sait que manipuler des nombres (essentiellement les comparer, les copier, les additionner,​ soustraire, multiplier, diviser), et pour ce faire les programmeurs écrivent des algorithmes (suites d'​opérations élémentaires) plus ou moins rusés ou complexes dans lesquels les opérations sont exécutées les unes à la suite des autres. Chaque opération que fait un ordinateur est minuscule, mais il en fait des millions par seconde au point qu'on le dit parfois intelligent. Dans **dt** il n'y a pas d'​intelligence artificielle mais des algorithmes (des sortes de recettes) puissants qu'il faut maîtriser (paramétrer et utiliser à bon escient), l'​intelligence c'est nous, et moi ça me plaît. (À ce sujet voir https://​aurelienpierre.com/​arretez-de-voir-de-lintelligence-artificielle-partout/​)\\ +
-==== Le capteur ==== +
-  * Les capteurs de la caméra sont couverts par un filtre vert, rouge ou bleu, ce qui fait que la caméra voit des points vert, rouge et bleu et pour chacun il transmet un chiffre qui en donne l'​intensité lumineuse: imaginons un tableau à 3 colonnes où chaque ligne concerne 3 capteurs voisins (Rouge, Vert et Bleu, en pratique il y a 2 Verts pour 1 Rouge et 1Bleu, mais ça ne change rien au principe pour nous), c'est ce que contient le fichier RAW (avec des paramètres de la prise de vue, les méta données qui nous seront utiles). On appelle ce genre de tableau une matrice. Ces 3 points voisins vont donner suite à une série de transformations que l'on appelle dé-matriçage un pixel coloré que le logiciel pourra alors être montré à l'​écran. ​  +
-  * Cette suite d'​opérations initiale inclue la transformation de chacun des pixels d'une mesure linéaire à une mesure non-linéaire qui s'​approche de la vision humaine (c'est la fonction gamma), j'ai eu du mal à comprendre que cette transformation se faisait au niveau de chacun des pixels (donc toujours de la même manière sur toute l'​image) et la conséquence sur le développement complet de la photo. +
-   {{ :​filmique:​concepts:​courbes.png?​400 |}} +
-  * Les capteurs sont limités à 10 à 14 EV suivant leur qualité, donc moins que la capacité humaine, ce qui fait que tout ce qu'ils ne captent pas de la scène, on s'en fout (comme le dit Aurélien Pierre dan sa présentation),​ comprendre ça m'a bien aidé. La scène c'est alors ce qu'a capté le capteur, charge au photographe de choisir une bonne exposition et donc un bon positionnement de sa plage dynamique (cadrage de l'​histogramme à droite). +
-  * ils sont perturbés par du bruit surtout dans le sombre (plus le signal est faible, plus il est perturbé). Le bruit du capteur est d'​origine atomique, les capteurs sont si petits qu'ils subissent les variations aléatoires inévitables à ce niveau de la matière ou d'​énergie,​ ceci indépendamment sur chaque canal vert, rouge et bleu, ce qui fait que des pixels de couleur très voisins peuvent présenter des différences d'​intensité (**luminance**) et de couleur (**chrominance**) aléatoires qui à un niveau macroscopique sont fondus dans une moyenne (le mot canal revient souvent il correspond aux captures rouge vert ou bleu émises par les capteurs). +
-  * les objectifs ont une profondeur de champs variable mais déterminée pour chaque capture +
-  * la capture a des défauts optiques qui une fois connus peuvent être corrigés plus ou moins bien par des algorithmes +
-  * Les capteurs encodent toute l'​image de la même façon +
-La plupart des défauts techniques peuvent être corrigés, et le sont actuellement,​ par des algorithmes qui peuvent être appliqués plus ou moins facilement. +
- +
-==== La construction de la photo (développement) ==== +
-Le développement complet consiste à faire dans la mesure du possible ce qui n'a pas pu être fait par le capteur (qui n'a pas toutes les caractéristiques de l'​oeil) ou qui est fait par le cerveau ​ afin de restituer la perception initiale du photographe à l’aide d’algorithmes appliqués sur la capture initiale (le fichier raw). +
-Tout ce que le capteur n'a pas fait à notre convenance doit être réalisé par des algorithmes,​ ces algorithmes dépendent évidemment de la manière dont la lumière (couleur et intensité) est transformée en chiffres. +
-  * Se pose alors la très délicate et complexe question du choix du modèle de représentation de la lumière, comment séparer la couleur apportée par la longueur d'onde (chrominance ou chromaticité , //je ne sais pas trop le concept à utiliser//) de l'​intensité lumineuse (luminance),​ car il n'y a pas qu'une façon de faire et le passage de l'une à l'​autre n'est pas sans effet de bord surtout si la transformation n'est pas réversible (d'un point de vue mathématique,​ les modèles linéaires on l'​avantage d'​être réversibles).  +
-Il est en effet nécessaire de pouvoir contrôler la couleur indépendamment de la valeur = degré d'​intensité ou de saturation.  +
-Ce que l'on veut, sans impact sur la couleur, c'est pouvoir assombrir certaines parties de l'​image et en éclaircir d'​autres comme le fait dynamiquement notre cerveau, cela revient à faire une correction au niveau de zones de l'​image analogue à celle qui est faite techniquement au-préalable au niveau de chacun des pixels : c'est ce que font filmique et l'​égaliseur de ton d'une part et la balance des couleurs d'​autre part. +
-  * Se pose le problème de la plage dynamique car les médias d'​affichage on une plage dynamique plus petite que celle du capteur. +
-  * Se pose aussi le choix de l'​espace colorimétrique +
-Il y a des choix à faire qui se révèlent souvent du compromis. Dans la v3 une nouvelle stratégie a été déployée pour la construction des valeurs en privilégiant un encodage RVB linéaire (voir les billets du développeur Aurélien Pierre qui a codé des modules pour ce faire) +
-Pour comprendre comment les algorithmes manipulent la lumière, il va maintenant falloir faire un peu de maths, enfin voir ce qu'on fait avec\\ +
-\\ +
-**Une photo est la communication de notre perception faite par un outil que l'on maîtrise de mieux en mieux mais il reste encore des pans de mystère que l'on doit aborder empiriquement.** +
  • filmique.1584758647.txt.gz
  • Dernière modification: 2020/03/20 22:44
  • par dpascot