Photographes professionnels, virtuoses de Photoshop CS et autres experts dans ces domaines, passez votre chemin, ce topo n'est pas pour vous. Et ne venez pas dire après que vous saviez déjà tout ce que qui va être écrit, je vous ai prévenu. D'ailleurs, ce n'est pas vraiment un test au sens que lui donne François, pas une analyse exhaustive de toutes les possibilités, juste une information, une piste pour les amateurs qui ont les mêmes préoccupations que moi.
Posons d'abord le décor. Après plus de 50 ans de labo noir et blanc (je m'y suis mis très tôt) et une bonne dizaine de milliers de Kodachrome, les EOS 10 et 50 ont été remisés au placard pour faire place au petit dernier (pardon, avant-dernier) de Canon, le 350D. L'appareil est arrivé juste deux jours avant un voyage d'agrément au Danemark. Chic, me suis-je dit, je vais pouvoir essayer cela in vivo. Bien sûr, je ne connaissais pas grand chose à cette technique, mais la photo reste la photo et un Canon, un Canon. Et la présence de l'écran et des menus ne dérangeait pas vraiment ayant de temps en temps mis la main sur l'Ixus 400 de ma femme (pas trop souvent, on a des principes quand même, ça fait pas sérieux ce petit machin tout automatique).
Une semaine plus tard, je rentre plein de bons souvenirs concrétisés par quelques 250 photos. Je sais, en numérique, c'est peu, mais les réflexes, ça ne se perd pas facilement : une photo, ça se compose comme un tableau et en diapos, on ne mitraille pas en rafales pour sélectionner ensuite : le porte-monnaie en prendrait un méchant coup. Mon premier geste fut bien sûr de transférer tout cela sur le Mac et de constater que si je n'avais pas tort, je n'avais pas raison non plus. Si une photo reste une photo qu'elle soit argentique ou numérique, cette technologie demande une attention supplémentaires, génère de nouveaux problèmes et surtout, ne résoud pas forcément ceux que vous rencontriez avec les diapositives. Et le plus important reste, bien sûr, le comportement face à des sujets très contrastés : les beaux ciels bleus avec mignons petits nuages blancs habillant le sombre manoir, la rosace de la cathédrale où on ne peut utiliser ni flash ni trépied, vous connaissez tous cela. Mais l'informatique, dit-on, permet des miracles, n'est-ce pas ?
Je reprends donc les choses par où j'aurais dû commencer : mitraillage à tout va de toute sorte de sujets, dans toute sorte de conditions, en raw et jpeg et promenade sur les milliers de pages du Web pour être un peu moins idiot sur le sujet. Bien sûr l'article de François sur DxO n'a pas échappé à mon attention, mais mes vieux 28-80 et 80-200 pourtant série L sont retirés depuis au moins deux lustres du catalogue Canon et ont peu, mais alors très peu, de chance de figurer un jour dans la liste des objectifs supportés. Certes le travail en raw avec DPP de Canon ou le Camera Raw de Photoshop aide pas mal, mais ne résoud pas tout.
C'est au cours de ces pérégrinations que je tombe sur une info de MacDigit, sobrement intitulée HDR, faisant référence à un papier de Gilbert Volkert, photographe. J'avais déjà rencontré ces initiales à propos du sujet qui me préoccupait et je suis donc allé voir. Inutile d'en faire de même, l'article, malheureusement, a disparu du site de Volkert et c'est bien dommage, car il m'aurait évité de vous écrire tout ce qui va suivre. Mais vous pouvez toujours, et je vous le conseille vivement, consulter l'autre article mentionné Luminous Landscape, mais entièrement dans la langue de Shakespeare. Et le site de Volkert vaut largement le détour, selon la terminologie Michelin. Je vais donc essayer de vous donner un résumé des informations recueillies là et ailleurs en commençant par un peu de théorie.
HDRI est le sigle pour High Dynamic Range Image que je traduirais par Image à Dynamique Large (les pros francophones ont peut-être une meilleure traduction). Pour rappel, et d'une manière très simplifiée, disons que la dynamique d'une scène éclairée est le rapport entre les quantités de lumière émise par les parties les plus éclairées et les parties les plus sombres. Ainsi, une pièce très sombre uniquement éclairée par une fenêtre tournée vers le soleil a une dynamique de l'ordre de 100'000:1, alors que l'oeil humain arrive à discerner tous les détails d'une image d'une dynamique de 10'000:1.
Les appareils que nous utilisons reproduisent les images en les codant en 8 bits par pixel, c'est-à-dire que chaque pixel peut avoir une intensité lumineuse variant entre 0 et 255, soit une dynamique maximum de 255:1. On est loin des 10'000:1 de l'oeil humain, vous en conviendrez. Les choses sont un peu meilleures avec les senseurs des appareils photos qui, en raw, codent en 12 ou 14 bits (pour les très hauts de gamme), le jpeg restant quant à lui limité aux 8 bits. Le format raw nous donne donc la possibilité d'obtenir des images avec des dynamiques de 4'095:1 ou 16'383:1. Du moins théoriquement, car d'autres facteurs viennent diminuer ces valeurs, notamment le bruit.
Tous ces chiffres vous donnent le vertige? Alors voyons cela avec l'oeil du photographe que vous êtes. Un capteur (film ou senseur) avec une dynamique de 255:1 correspond à 8 diaphragmes. C'est-à-dire que, en partant de l'ouverture idéale (celle par exemple que choisira votre appareil avec une mesure évaluative multizone), si vous fermez le diaphragme de 4 crans, vous ne pourrez absolument plus rien distinguer, la photo sera entièrement noire. Si vous l'ouvrez de 4 crans, ce sera la même chose, mais la photo sera entièrement blanche. Entre les deux, vous commencerez à voir des détails dans les basses lumières qui seront progressivement bouchées alors que les détails dans les hautes lumières apparaîtront progressivement. Pour mémoire, un film inversible a une dynamique d'environ 6 crans de diaphragme, un film négatif couleurs, 8 crans, alors que le noir et blanc peut monter jusqu'à 10 crans.
Cette petite digression vous a sans doute déjà donné une petite idée du comment on pourrait élargir la dynamique d'une image. Prenons un exemple : supposons que vous voulez immortaliser une scène ayant une dynamique de 1000:1, chose relativement courante dans la nature. Une dynamique de cet ordre correspond à 10 crans du diaphragme. Oublions les extrêmes et disons qu'on se contentera de 8 crans (les photos blanches ou noires ne nous apporteront pas grand chose). Donc, si vous prenez 8 photos en ouvrant à chaque fois votre diaphragme d'un cran à partir de la valeur maximum, vous enregistrez tous les détails de toutes les zones, mais sur 8 photos différentes. Il ne vous reste plus qu'à superposer ces huit photos en prenant garde de ne conserver pour chacune que les zones de luminosité adaptée au diaphragme et vous obtenez une HDRI. D'accord, j'ai beaucoup simplifié, mais les détails, à mon avis, n'intéressent que les pros et je les ai priés de sortir. Si vous voulez approfondir, une petite recherche Google avec "HDRI" vous en apprendra autant, sinon plus, que moi.
Et voilà pour la théorie, passons maintenant à la pratique. Enfin tout d'abord à l'application pratique de la théorie.
Du point de vue du photographe, d'abord, il faut se comporter en ayant dans l'idée qu'on va créer une image à dynamique large. Quelles sont les conditions et comportements idéaux :
1. installer l'appareil sur un trépied : pas question qu'il bouge entre deux prises de vue, on ne pourrait plus superposer les images.
2. fixer une ouverture appropriée à la profondeur de champ désirée et déterminer les temps de pose idéaux pour les zones des plus hautes et des plus basses lumières. La remarque concernant la profondeur de champ vous indique déjà qu'on ne devrait pas utiliser la fonction bracketing qui joue sur les ouvertures et donc modifie la profondeur de champ.
3. mettre votre appareil en mode manuel et prendre une série de photos en passant de la vitesse maximum à la vitesse minimum déterminées au point 2, en appliquant à chaque fois un facteur 2. Par exemple, si vous avez déterminé que la vitesse minimum (pour le maximum de détails dans les basses lumières) est de 1/10e de seconde et la vitesse maximum (pour le maximum de détails dans les hautes lumières) est de 1/250e, vous prendrez vos photos au 1/10e, 1/20e, 1/40e, 1/80e, 1/160e et finalement 1/320e. Bien sûr, ces chiffres sont théoriques et vous pouvez les ajuster selon les crans disponibles sur votre appareil. Grosso modo, vous aurez six ou sept photos. Evidemment, toutes vos photos seront prises au format raw qui, nativement, a la plus grande dynamique possible.
4. Vous passez le tout à l'informatique pour qu'elle se débrouille !
Et c'est au point 4 que l'amateur se trouve piégé. Parce que la fonction HDR est une fonction "pro" (même MacDigit l'appelle ainsi) et n'est donc disponible que dans Photoshop CS2. Amateur ou fauché qui vous contentez de Photoshop Elements 3, parce que le CS2 ne vous est pas offert par votre patron et vous coûtera le prix d'un objectif haut gamme, oubliez cela, ce n'est pas pour vous !
Eh bien, si ! Et je vais vous le prouver !
Ne disposant pas d'une rosace et sa cathédrale sous la main, j'ai donc pris un coin de mon chez moi, le soir avec la lumière ambiante. Appareil monté sur trépied, 400 ISO et f5.6 pour avoir un peu de profondeur de champ, focale 28x1.6=45 mm. Première photo prise en raw en mesure évaluative multizone, corrections par Camera Raw (celui-là au moins marche également avec PS Elements - le raw n'est pas réservé aux pros) et voici ce que cela donne :
Oui, bon, c'est pas trop mal, mais pour les détails, on repassera. Voyons ce que nous donnera la technique HDRI (comment je n'ai pas CS2. Non mais! Attendez...)
La mesure des hautes lumières avec ce diaphragme 5.6 me demande une vitesse d'obturation de 1/50e de seconde; les basses lumières, elles, seraient satisfaites avec 1,5 secondes. Je choisis donc 8 crans : 2", 1", 0.5", 1/4", 1/8", 1/15", 1/30" et 1/50*. Passage en manuel et voici ce que j'obtiens :
Vous pouvez évidemment agrandir ces images en cliquant dessus.
On passe maintenant aux choses sérieuses : la création de l'image à dynamique large (non. non, je n'ai toujours pas PS CS2!). Ah, encore une petite précision : ne pas oublier que nos périphériques (écrans, imprimantes) travaillent en 8 bits et peuvent parfois mal interpréter les informations contenues dans une HDRI. La création de l'image HDR doit donc être suivie d'un ajustement des tons (tone mapping) afin que chaque pixel reçoive une information 8 bits qu'il puisse interpréter correctement. Et c'est à cette étape que le photographe peut jouer de sa créativité, de sa sensibilité : augmenter les contrastes, ajuster les blancs et les noirs, jouer sur la saturation des couleurs, etc.
Et voici ce que donne le petit coin de chez moi, ajusté à ma sensibilité photographique :
Caramba! Piégé! Vous avez tout compris. En effet, j'ai utilisé un logiciel dénommé Photomatix, en version d'essai. Je vais vous en dire quelques mots plus loin, mais si vous m'avez suivi jusqu'ici, c'est que vous vous intéressez à la photographie et je n'ai donc pas besoin de vous souligner les avantages de cette photo au niveau du rendu des détails et de l'atmosphère, par rapport à la précédente, la meilleure que le raw pouvait me donner.
Parlons un peu de Photomatix maintenant. Ce logiciel a été développé par une petite équipe française installée à Monpellier sous le nom de MultimediaPhoto. Paradoxalement, ce logiciel n'existe qu'en version anglaise. Raison invoquée par ses concepteurs : le logiciel n'intéresse guère les francophones et est surtout diffusé à l'étranger (1% des ventes en France - nul n'est prophète en son pays). Son prix : 99$ - 85€ ou 132 CHF + TVA, ce qui vous met PS Elements 3 et le HDRI à CHF 250.-, soit bien moins que PS CS2 et vous avez ainsi le droit à devenir un pro.
La version 2.1 actuellement disponible sur leur site est parfaitement compatible avec Panther, mais présente encore, sous Tiger, quelques bugs en cours d'élimination. Une version 2.1.1. existe déjà en béta et comme je suis avec le Tigre depuis belle lurette, c'est cette version que Photomatix a bien voulu me mettre à disposition. C'est elle que j'utiliserai pour poursuivre avec vous l'exploration des possibilités des images HDR et vous avez compris que l'usage de la version démo pour l'image précédente était délibéré afin d'amener le nom du logiciel. Cette version démo n'est d'ailleurs aucunement bridée et vous pouvez l'essayer aussi longtemps que vous voudrez : seul le filigrane indiquera que vous ne l'avez pas encore achetée. Ce qui ne saurait tarder, sans doute. Un test complet du logiciel est prévu pour un peu plus tard.
Ce que je vous ai montré ou ce que vous pouvez voir sur les sites consacrés aux images HDR, a été pris et traité dans les conditions optima définies par la théorie. Mais il y a loin de la théorie à la pratique, malheureusement. Par exemple, une des premières objections que l'on peut faire (et François n'y a pas manqué lorsque je lui ai parlé de cette technique) est qu'elle ne serait applicable qu'à des sujets pratiquement statiques (pour permettre l'exacte superposition des prises de vue).
Mais nous verrons tout cela dans la 2e partie, pour autant que cela vous intéresse.
, le 26.10.2005 à 01:17
Enfin des cours sur la pratique et la théorie de la prise de vue avec un apn. Il faudrat pousser encore plus loin:)
, le 26.10.2005 à 05:03
Bravo ! Non seulement le sujet est intéressant, mais de plus il est bien traité.
A demain pour la suite..
, le 26.10.2005 à 06:31
Trés intéressant, Hervé.
Au dela de l’aspect technique, fort bien traité (et vivement demain pour la suite), je me questionne sur l’aspect pratique de la prise de vue. Tu mentionnes judicieusement la quasi nécessité d’un trépied. Pour photographier un paysage, ou un coin de ton salon, c’est jouable. Par contre, dans beaucoup d’autres situations, c’est plus complexe. Notamment s’il y a des gens sur la photo.
A part acheter un Fuji S3, je ne vois pas de solution :))
, le 26.10.2005 à 07:11
Merci beaucoup pour cette description de procédure. Pour ma part, plutôt que de réaliser les différentes images en séquence à l’aide d’un trépied, je prends une seule photo (en mode RAW) en prenant la mesure, comme en diapo, sur le point le plus lumineux, puis je développe différents niveaux de luminosité et procède ensuite, soit à l’aide de « DRI Pro » (2 images) ou de la fonction « Fusion HDR » de PS CS2. Est-ce que je me trompe ?
, le 26.10.2005 à 07:49
Gritche: c’est ingénieux. Je vais faire un test. Merci pour le truc.
, le 26.10.2005 à 07:55
Je ne suis pas un spécialiste ni un fan de la photo numérique, mais j’ai lu et appécié cet article jusqu’au bout !
Merci Hervé !
, le 26.10.2005 à 08:20
Fort intérressant mais la petite pub pour « photomatix » me gène un peu. J’attends la suite avec impatience.
, le 26.10.2005 à 08:44
Je ne vois pas en quoi cette humeur/test change des autres articles publiés sur cuk. Hervé nous explique quel programme il a utilisé et qui l’a satisfait.
L’article en lui-même est intéressant à mon avis, même si ça me dépasse un peu ;-)
, le 26.10.2005 à 09:00
C’est passionant ces histoire de HDRI. En fait pour résumer la chose je dirais que c’est un format qui premet de conserver la plus grande plage d’exposition de l’éclairage.
Le HDRI est employé intensément depuis deux/trois ans en image de synthèse (Cinema 4D) pour illuminer des scènes de manière naturelle. Couplé a une technique de rendu nommée radiosité qui prend en compte les rebond des photons, ce fut une vrai révolution pour l’image de synthèse ! (auparavent il fallait tout éclairer a la main, alors que la, vous placer un environnement HDRI, et il vous illumine votre scène). faite une recherche sur paul devebec, pour trouver des exemple d’images HDRI.
Sinon, j’ai déja été confronté au problème il y a quelques années ou je devait réaliser des panoramiques QTVR d’une Abbaye. Je prenait les photos a l’ombre depuis le cloitre, mais je me retrouvait progressivement avec le soleil de face, et les murs cramés ! J’avais donc pris plusieurs photos avec des expositions différentes, puis composité l’ensemble sur Photoshop en jouant des masques de fusion. Si j’avais eu le HDRI et la CS2 à l’époque, que de temps gagné !
(Le QTVR est visible ici )
, le 26.10.2005 à 09:17
L’article est très bien, etc (on va essayer de ne pas répéter 50 fois la même chose).
Le logiciel semble bien lui aussi mais pourquoi faut-il toujours payer pour tout. Je sais que les société doivent vivre mais bon. 79€ me semble un prix un peu élevé pour un petit logiciel d’amélioration d’image.
C’est mon avis et n’engage que moi.
http://nightride.url5.net
Courts-métrages amateurs
, le 26.10.2005 à 09:23
wow! Je ne suis absolument pas fan de photo, mais voilà un article qui m’a passionné! Et quel résultat! je suis assez bluffé, je dois dire…
L’algorithme de recomposition m’intéresse grandement, et ne me parait pas bien compliqué, je me demande si réaliser un soft faisant cela ne se ferait pas en moins d’une dizaine d’heures (à condition de savoir lire le RAW)…
Petite précision:
sur 8 bits, tu peux avoir des valeurs de 0-255 soit 256 valeurs et donc une dynamique de 256:1, idem pour 12 bits: 4096:1 et 14 bits: 14384:1… lesinformaticiens ont la facheuse tendance à compter à partir de 0!
Vivement demain…
—-
6*9=42!
, le 26.10.2005 à 09:26
Passionnant ;-))
Quant aux sujets potentiels, il en existe beaucoup en macro : certaines orchidées comme les Ophrys qui présentent souvent un très fort contraste, des champignons en forêt, certains insectes qui restent parfois longtemps immobiles, comme les chenilles, …
Le problème éventuel peut venir de la TTL au flash, dont on peut difficilement se passer aux plus grands rapports de reproduction (œufs de papillons par exemple). Mais là encore avec le correcteur, en variant de + 2 à – 2 diaphs, on peut disposer de 5 images, ce est déjà une bonne base pour obtenir une image HDR.
Je sens que je vais acheter ce soft et expérimenter.
A demain.
Michel Gaboly
http://www.gaboly.com/perso
, le 26.10.2005 à 09:30
Petite faute de frappe ; il faut lire 16384 et non 14384 ;-))
Michel Gaboly
http://www.gaboly.com/perso
, le 26.10.2005 à 09:31
Cette technique est vraiment un grand plus pour les prises de vue numériques, spécialement en paysage lorsque la lumière se trouve entre chien et loup.
Ciel encore clair, mais terrain déjà sombre. Les capteurs CCD ou CMOS n’aiment point autant de contraste.
Par contre, je ne sais pas si c’est dû au logiciel utilisé ou à la prise de vue, mais l’image résultante a tendance à virer vers le jaune.
Dans tous les cas, c’est toujours encourageant les articles de vulgarisation de techniques aux noms barbares.
, le 26.10.2005 à 09:41
FF: 79 euros c’est bien moins cher que Photoshop CS2.
, le 26.10.2005 à 17:07
Petite remarque : un appareil photo numérique sortant du JPEG ne possède pas forcément une dynamique de 1:256, soit 8 diaphragmes. En fait, ce n’est même jamais le cas. Et le même appareil, en shootant en RAW, ne va pas soudainement afficher une dynamique de 1:4096 ou 12 diaphs, par miracle.
Le capteur a certaines capacités : il voit certaines couleurs mais pas toutes, a une certaine dynamique selon la sensibilité et les réglages de contraste par exemple, des courbes de sensibilité particulières… Le profil colorimétrique ICC de l’appareil décrit tout cela.
Les fichiers RAW sont associés au profil du capteur, puis qu’en principe les données du capteur ne sont pas modifiées, et les fichiers JPEG sont associés au profile sélectionné dans l’appareil, tels que les sRGB ou AdobeRGB.
Pour faire simple, il y a une corrélation directe entre le niveau de bruit d’un capteur, la taille des photosites et la dynamique du capteur. Plus un photosite sera grand, moins il sera sensible au bruit et plus sa dynamique sera étendue.
Ainsi un appareil compact à petit capteur bruitera plus et aura une dynamique plus faible. Mon A80 par exemple affiche (c’est empirique, mesures faites à l’oeil par moi-même) une dynamique de 7 diaphs. Quant à mon 20D, à 100 ISO, sa dynamique frôle les 9 diaphs, et à peine plus de 7 diaphs à 1600 ISO.
Je n’ai pas analysé comment mon 20D générait ses JPEG. Mais à première vue, il n’utilise pas la totalité de la gamme dynamique du capteur puisque j’arrive à ressortir des détails des RAW crâmés dans les JPEG (dans les hautes lumières ou dans les ombres). Pourtant, la dynamique utile en JPEG n’est pas de 8 diaphragmes. En jouant sur le réglage de contraste et saturation de mon boîtier, je peux à vue de nez sortir des JPEG ayant entre 6 et 9 diaphs de dynamique.
Pour en revenir au RAW… la dynamique des fichiers RAW est celle du capteur ou peu s’en faut. Dans les 9 diaphs donc, pour mon 20D à 100 ISO. Le RAW, avec ses 4096 niveaux, détaillera plus finement les variations de luminosité que les JPEG.
La musique numérique fonctionne de façon similaire. Un DVD-Audio codé en 24 bits ne jouera pas forcément la musique plus fort qu’un CD codé en 16 bits. Le son sera juste plus finement numérisé, avec plus de niveaux entre le son à volume maximal et le silence.
Bref, cette fonction HDR permet, en prenant plusieurs clichés exposés différemment, d’augmenter la gamme dynamique d’un capteur, quel qu’il soit. En faisant une série d’expositions entre -2 et +2, on augmente la dynamique de 4 diaphragmes (pour un total de 13 diaphragmes toujours avec mon 20D). On approche du négatif là…
Attention, cette fonction pose des problèmes de rendu lors de la conversion en JPEG 8 bits. Coller 13 diaphs de dynamique dans des JPEG n’affichant usuellement que 6 ou 7 diaphs modifie drastiquement le rendu global. Il faut jouer de la courbe de luminosité pour conserver un contraste global naturel et satisfaisant. Mais on peut fouiller les hautes lumières et les ombres de façon spectaculaire.
, le 26.10.2005 à 17:25
moi je dis que les fabricants de relexs numériques devraient introduire une fonction dans leurs appareils qui permettrai de prendre 7 (ou qqch comme ça) images DE SUITE mais avec des réglages permettant de retraiter les fichiers par une méthode HDRI… Ca permettrai de gagner du temps lors de la prise de vue… (je n’ai pas dit que l’appareil devait calculer tous les réglages ! Je fais en quelque sorte allusion à une sorte de programmation de prises de vues en »batch », chacune ayant ses propres réglages).
, le 26.10.2005 à 17:38
Cela s’appelle le braketing et cela existe dans la plupart des APN actuels !
, le 26.10.2005 à 17:48
Hervé, attention à qui tu t’adresses quand tu dis que les images sont codées sur 8 bits par pixel: les pros comprendront que tu parles de 8 bits par composante rouge/vert/bleu d’un pixel, soit 24 bits par pixel. Les autres risquent d’imaginer que tu parles de ce que ta formulation laisse supposer, c’est-à-dire la profondeur de l’image elle-même.
Une image codée sur 8 bits par pixel ne permettrait évidemment que 256 couleurs, ce qui ne ressemblerait pas à une photo, mais le risque de confusion subsiste, d’autant que tu mentionnes l’alternative de codages sur 12 et 14 bits, taux qui eux suffiraient à un rendu photographique même s’il s’agissait effectivement de la profondeur de l’image et non du tiers de celle-ci.
, le 26.10.2005 à 18:02
@VRic
Tu as parfaitement raison, mais je n’ai pas voulu tomber dans une explication qui, à mon avis, n’intéresse guère le commun des mortels. Car on ne parle pas de couleurs, mais de luminosité. Mais cela intéresserait peut-être quelqu’un de plus compétent que moi de faire un peu de vulgarisation sur le sujet.
, le 26.10.2005 à 20:04
Couleur ou luminosité, ça ne change rien: le nombre de nuances définissables dépend de la quantité d’information utilisée pour décrire chaque pixel. Cette quantité se trouve être de 24 pour les images courantes. Pas 8.
Ce n’est pas très compliqué mais rien ne t’oblige à l’expliquer: si tu n’expliques pas ta formulation impropre pour l’instant, pourquoi les termes justes nécessiteraient-il plus d’explication?
Quand on dit 8, celui qui sait que c’est évidemment faux dans le contexte corrige de lui-même en estimant que probablement l’auteur parle d’autre chose. Ce que l’amateur ne devinera pas forcément.
Or il suffit de ne pas dire quelque chose de faux au départ pour que personne n’ait à se poser la question: mettre 24 au lieu de 8 dans la même phrase ne la rend pas plus compliquée (c’est la même phrase), ne requiert aucune explication et ne risque de dérouter personne, car c’est juste, au lieu de faux, ce qui fait une différence. C’est donc plus judicieux.
Celui qui ne comprend pas de quoi tu parles ne comprendra pas moins, celui qui sait exactement de quoi tu parles comprendra aussi bien, mais entre les 2 cela fait une énorme différence pour celui qui n’a que les rudiments tirés de l’utilisation courante et qui aurait de grandes chances de se fourvoyer sur le sens de ta phrase, puisque tu ne veux pas dire ce qui est écrit.
, le 26.10.2005 à 21:36
VRic, je rebondis sur cette histoire de 8, 12 ou 24 bits… C’est pas simple !
En effet les JPEG sont codés sur 24 bits par pixel. Ou 8 bits par composante rouge, verte et bleue. Néanmoins, Photoshop par exemple parle de codage 8 bits ou 16 bits, voire 32 bits pour les images HDR (et encore, il y a une subtilité que je passe sous silence). Sous entendu : bits par composante. Soit donc des images codées sur 24, 48 et même 96 bits par pixel !
Quant aux fichiers RAW, ils sont codés sur 12 bits (sur 14 pour certains ?) par photosite. Or si un photosite correspond à un pixel de l’image finale, il n’en va pas de même pour les composantes chaque photosite ne voyant qu’une composante donnée. Ça se complique encore avec les matrices de filtres comportant quatre couleurs plutôt que les trois couleurs usuelles.
Mon avis est qu’il plus simple de parler du codage des composantes, sur 8 ou 12 bits donc, 32 bits pour les images HDR, comme l’a fait Hervé. Ceci afin de faciliter les comparaisons de dynamique. C’est l’usage du terme pixel qui est maladroit.
Mais convenez tout de même que c’est difficile de parler de composante par pixel ou de photosite et de se dire que c’est en gros interchangeable, que photosite et pixel pour un fichier RAW, c’est pareil, mais que pixel JPEG et pixel RAW non.
Finalement, le plus simple est peut-être de ne pas parler de pixel, de composante ou de photosite du tout, mais de simplement discuter de la dynamique. La vulgarisation est un art difficile, et Hervé s’en tire remarquablement je trouve.
, le 27.10.2005 à 09:39
Pour le petit nouveau qui n’a pas l’air si petit que ça, c’est un coup de maître. Bien que n’étant pas certain d’être totalement passionné par le sujet, c’est très agréable de lire un article de vulgarisation dont le niveau d’écriture est très soigné. C’est fluide, on a l’impression d’être plus intelligent en lisant. Merci.
François Mottaz
, le 27.10.2005 à 16:37
c’est joli chez toi
, le 27.10.2005 à 17:30
FT’e, oui, ce n’est qu’un problème de formulation.
Celui qui n’en sait pas plus au départ ne peut pas faire la différence entre ce qui est une information et ce qui est une license de langage. Il lit « une image jpeg est codée sur 8 bits par pixel » et le lendemain c’est ce qu’il dit et croit savoir. Mais ça lui ouvre tout un monde d’incompréhension, par exemple quand son interlocuteur croira à raison comprendre qu’il parle d’une photo monochrome, qui a effectivement 8 bits par pixel.
Il ne s’agit donc pas de compliquer l’explication, mais d’éviter les formulations qui induisent en erreur, donc plutôt simplifier l’explication en donnant le moins possible de détails secondaires, car comme tu le fais remarquer il y a plein de façons de capturer et stocker les images numériques, pas toujours en fonction des composantes RVB utilisées à l’affichage (d’ailleurs le vrai mode natif de Photoshop n’est pas RVB mais Lab qui est fiable et plus vaste, ce qui est aussi une autre histoire).
D’autant qu’expliquer vraiment me semble impossible dans le cas présent: pour décrire la dynamique on ne pourrait parler de 256 niveaux que dans une image TSL à 8 bits par couche car ce serait effectivement codé comme ça, mais il n’existe pas à ma connaissance de format de fichier TSL et je ne suis pas persuadé qu’on puisse deviner combien de valeurs on tire d’une image RVB où ça dépend de l’espace colorimétrique d’entrée et du gamut de l’appareil de sortie.
Pour ceux qui suivent encore, tant qu’on y est, petit lexique de théorie des couleurs (plein de théories utilisent d’autres termes, ou les mêmes autrement, en particulier en informatique):
teinte : combinaison d’une couleur à une certaine saturation et une certaine valeur
valeur : niveau de clarté ou obscurité d’une teinte, soit la quantité de lumière émise ou renvoyée, du blanc au noir
couleur : longueur d’onde de cette lumière, entre l’infrarouge et l’ultra-violet pour la partie visible du spectre
saturation : intensité de cette couleur, du gris de même valeur à la couleur pure, soit la proportion dans cette teinte entre cette longueur d’onde et le blanc, qui est la combinaison de toutes
teinte / couleur : on trouve souvent plus simple pour être compris d’intervertir les 2 dans l’explication précédente, pour ne pas bousculer les préconceptions des gens (qui auront en général utilisé couleur au sens de teinte toute leur vie), d’où le mode TSL pour Teinte/Saturation/Luminosité, qui donne des noms « grand public » aux notions Couleur/Saturation/Valeur de la théorie des couleurs, peut-être en partie par suite de traduction de l’Anglais.
composante : décomposition plus ou moins arbitraire adaptée à tel ou tel type de description, stockage, reproduction de teintes. Par exemple les ordinateurs affichent en rouge/vert/bleu donc c’est pratique de manipuler les données de cette façon, mais les formats vidéo fonctionnent très différemment par suite de la décision de compatibilité lors de la transition entre TV N&B et couleur, en accordant plus d’importance à la « luminance » qu’à la « chrominance ». Ainsi du DV « 4:1:1 » utilise 2 fois plus d’informations pour décrire la valeur (4 pour la luminance) que pour le reste de la teinte (1 pour chaque composante de chrominance, lesquelles dépendent du standard matériel de la source). Raison pour laquelle de la vidéo « 4:2:2 » préserve mieux les couleurs (poids égal entre chrominance et luminance), sans pouvoir pour autant égaler le RVB (analogie plus directe entre l’information et le dispositif de rendu).
espace colorimétrique : teintes possibles dans un modèle théorique (tous les modèles ne permettent pas de décrire toutes les teintes)
gamut : portion de cet espace dont un appareil est capable (aucun appareil n’est capable de toutes les teintes)
profil colorimétrique: description des capacités/limitations d’un certain appareil dans un certain espace colorimétrique, pour permettre aux données d’un appareil d’être rendues par un autre
Pif : façon la plus courante de gérer la question et périodique de jeunesse à couverture rouge issu du Parti Communiste Français, lui-même à forte dominante rouge
, le 28.10.2005 à 18:12
Très intéressant article Hervé.
Et non moins intéressante participation, VRic.
Vivement la suite…
, le 29.10.2005 à 11:35
juste pour info, le prénom de Monsieur Gilbert s’écrit Volker et non Volkert (!)…
Macdigit
, le 31.10.2005 à 13:47
Passionnant ..depuis que j’ai lu ton papier je ne laches plus mon apn reste que lorsque tu dis que le bracketing n’est pas la bonne solution..je ne suis pas tout à fait d’accord, tu peux utiliser le bracketing en priorité diaph et la tu ne changes rien à ta prof de champs…non ??
a+